1000 resultados para Estimação de custo
Resumo:
Esta dissertação está inserida nos estudos relativos ao conforto ambiental, tendo como foco principal a melhoria do desempenho da edificação, causando, portanto, maior satisfação ao usuário. Este trabalho teve o objetivo de analisar a intervenção na estrutura física de uma escola do ensino fundamental, da rede pública municipal da zona urbana de Feira de Santana, Bahia, que foi feita visando melhorar o conforto ambiental da edificação adequando a estrutura física às necessidades dos usuários. Para tanto foi desenvolvido projeto de intervenção de baixo custo e aplicável em outras escolas. Os métodos aplicados para o presente estudo foram: questionários, entrevistas, observações de traços físicos e levantamentos físicos, através de medições. Os resultados obtidos com o levantamento dos dados serviram como referencial para a elaboração do projeto de intervenção. Dentre os principais resultados obtidos com a intervenção está o da melhoria do índice de satisfação dos usuários das salas de aula; 50% das pessoas encontravam-se insatisfeitas com o desconforto do ambiente. Após a intervenção o número de insatisfeitos caiu para 35%, comprovando que houve melhoria no ambiente escolar, embora as condições de conforto não estejam totalmente contempladas. Na sala da secretaria, que sofreu uma intervenção diferenciada em relação às salas de aula, o índice de pessoas insatisfeitas caiu de 40% para 22%, caracterizando o ambiente como próximo do conforto térmico. Os resultados do projeto de intervenção foram importantes, considerando-se o objetivo de dar continuidade às pesquisas relacionadas ao conforto ambiental nas escolas da rede pública municipal.
Resumo:
O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.
Resumo:
Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.
Resumo:
Imagens georreferenciadas LANDSAT 5 TM da região da Mina Leão II, situada na Depressão Central do Estado do Rio Grande do Sul, foram processadas e classificadas digitalmente com objetivo de gerar o mapa de uso e cobertura do solo. Destas imagens, a drenagem foi extraída na forma vetorial, com o objetivo de determinar a faixa de proteção em torno dela. Dados topográficos plani-altimétricos analógicos foram tratados gerando o modelo digital do terreno e mapas de declividades. Foram definidos critérios para selecionar sítios adequados à colocação de rejeitos de carvão. Imagens de uso e cobertura do solo, declividades, rede de drenagem, litologias, estruturas geológicas, e distância a partir da boca da mina foram transformadas em sete fatores. Três fatores são absolutos ou restrições: zona de proteção da drenagem, zona de restrição em torno dos falhamentos e declividades superiores a 8%. Os restantes, são fatores relativos: uso e cobertura do solo reclassificado, declividade inferior a 8%, substrato litológico e distância a partir da mina. Aos quatro fatores relativos foi atribuída uma ponderação pareada. Através das ferramentas computacionais de apoio à decisão, em um Sistema de Informação Geográfica, os oito diferentes fatores foram cruzados, resultando um mapa temático que localiza e classifica sítios para a locação de rejeitos de carvão. As classes identificadas foram: área de restrição, péssima, regular, boa e ótima. O mapa de uso e cobertura do solo foi reclassificado em função de ser elaborada uma imagem de superfície de atrito, a partir do local da boca da mina, com a finalidade de se projetar vias de menor custo, desde a mina até a BR290 e a um porto situado no rio Jacuí. Dados sobre a espessura da camada de carvão inferior, "I", de uma campanha de sondagem de 182 furos, foram tratados por metodologia de geoestatística. Estudos de estatística descritiva, análise de continuidade espacial e estimação foram realizados, culminando com a cubagem da camada na área de estudo. Foi escolhido o processo de interpolação através da krigagem ordinária. A tonelagem da camada de carvão "I" foi estimada na ordem de 274.917.234 a 288.046.829 t. com nível de confiança de 95%.
Resumo:
O presente estudo pretende analisar o mercado brasileiro de alumínio primário, através da elaboração e simulação dinâmica de um modelo econométrico, com capacidade de explicar satisfatoriamente as relações típicas das variáveis econômicas consideradas neste mercado, conforme são postuladas pela teoria da empresa em competição imperfeita.
Resumo:
Neste trabalho comparamos as Curvas IS e de Phillips, derivadas a partir de modelos “tradicionais” e micro-fundamentados. Além disso, estimamos essas curvas para dados trimestrais brasileiros no período de 1994 a 2001. Na estimativa da IS foi usada a técnica de vetores de co-integração, já que esta curva é não balanceada – o hiato do produto é integrado de ordem zero e os regressandos são integrados de ordem um.
Resumo:
Neste trabalho compara-se diversos métodos de determinação da volatilidade de uma ação, quando a finalidade é tornar um dado spread de opções delta-neutro, usando o modelo de Black-Scholes. Os spreads são formados com o objetivo de gerar lucros de arbitragem, através de uma estratégia de exploração sistemática de distorções de volatilidades implícitas das opções de compra da Telebrás na BOVESPA, no período de Abril de 93 a Maio de 95. A comparação dos métodos é feita através de medidas da eficiência dos mesmos em hedgear os spreads formados. Nessas condições, conclui-se que a melhor maneira de tomar a carteira delta-neutra é usando para cada opção a sua respectiva volatilidade implícita. Além disso, verifica-se que teria sido possível, para um agente com baixos custos de transação, obter lucros substanciais com a estratégia de trading utilizada.
Resumo:
O presente trabalho apresenta a estimação de sistemas de custos aplicados à telefonia fixa no Brasil, nas modalidades local e longa-distância intraregional. Os resultados encontrados permitem algumas considerações sobre políticas de regulação, sobretudo no que concerne ao impacto sobre o custo advindo do cumprimento das metas de universalização estipuladas pela Agência Nacional de Telecomunicações (ANATEL). Nesse sentido, obteve-se uma estimativa para a elasticidade-custo em relação à densidade demográfica, indicando que uma redução de 1% na densidade demográfica da área servida por uma determinada empresa eleva os custos de prestação do serviço em aproximadamente 0,15%.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.
Resumo:
O estudo do impacto de ciclo econômico no bem-estar dos indivíduos de uma economia é um assunto de grande importância teórica. Ao considerarmos a economia brasileira, onde grande maioria dos indivíduos não dispõe de mecanismos de crédito, este estudo torna-se ainda mais relevante. Se os agentes não são capazes de suavizar consumo segundo a hipótese da renda permanente de Friedman é de se esperar que sofram impactos ainda maiores diante de flutuáveis na renda. Utilizamos o modelo proposto por Imrohoroglu (1989) para os dados da economia brasileira a fim de mensurar a perda de bem-estar causada por um ciclo econômico. A partir de resultados que mostram o significativo custo dos ciclos econômicos, propomos a introdução do governo no modelo. Agindo no sentido de completar mercados, o governo se mostrou eficiente. Apesar de simples, nosso experimento mostrou a importância de investigarmos a ação governamental como opção para elevação do bem-estar em economias restritas ao crédito ao longo de flutuáveis econômicas.