997 resultados para Modelos Agregados
Resumo:
O trabalho tem como objetivo verificar a existência e a relevância dos Efeitos Calendário em indicadores industriais. São explorados modelos univariados lineares para o indicador mensal da produção industrial brasileira e alguns de seus componentes. Inicialmente é realizada uma análise dentro da amostra valendo-se de modelos estruturais de espaço-estado e do algoritmo de seleção Autometrics, a qual aponta efeito significante da maioria das variáveis relacionadas ao calendário. Em seguida, através do procedimento de Diebold-Mariano (1995) e do Model Confidence Set, proposto por Hansen, Lunde e Nason (2011), são realizadas comparações de previsões de modelos derivados do Autometrics com um dispositivo simples de Dupla Diferença para um horizonte de até 24 meses à frente. Em geral, os modelos Autometrics que consideram as variáveis de calendário se mostram superiores nas projeções de 1 a 2 meses adiante e superam o modelo simples em todos os horizontes. Quando se agrega os componentes de categoria de uso para formar o índice industrial total, há evidências de ganhos nas projeções de prazo mais curto.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.
Resumo:
É proposto aqui um modelo estrutural macroeconômico capaz de englobar os impactos das políticas fiscal e monetária do governo sobre os principais agregados macroeconômicos, assim como projetar seus efeitos no curto e médio prazos. Para tanto um sistema com dez equações é proposto. A primeira equação é uma do tipo IS, ligando o hiato do produto e suas defasagens à taxa de juros reais e à taxa de câmbio real. A segunda é uma versão da chamada Curva de Phillips, que liga a inflação, suas defasagens, e valores esperados futuros, ao hiato do produto e à taxa de câmbio nominal. A terceira é a uma equação da chamada Paridade de Juros não Coberta, que liga o diferencial das taxas interna e externa à desvalorização esperada da moeda doméstica e ao prêmio de risco de reter ativos domésticos. Complementa-se o sistema formado por essas três equações da seguinte forma: uma equação para o emprego representando o mercado de trabalho, duas equações que representariam o comportamento fiscal agregado - gasto público, arrecadação tributária - e duas que representariam a demanda por exportações e importações nacionais. Finalmente, são acrescentadas duas identidades que determinarão o caminho da dívida pública e o da dívida externa.
Resumo:
Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
Este trabalho estima modelo CCAPM (consumption capital asset pricing model) para três classes de funções utilidade com dados brasileiros, gerando estimativas robustas de aversão ao risco elasticidade substitu ição intertemporal. Os resultados são analisados comparados resulta dos anteriores para dados brasileiros americanos.
Resumo:
O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.
Resumo:
Neste trabalho buscamos evidências, para o caso brasileiro, da Hipótese da Renda Permanente. Primeiro, investigamos a existência de tendências e ciclos comuns entre as séries de consumo e renda per capita. Então, usando o resultado de co-movimentos entre as variáveis decompomos cada série em tendência e ciclo, através dos modelos de componentes não observados de Harvey (1989). Por fim, usando os modelos de vetores autorregressivos, decompomos a variância dos erros de previsão, seguindo a metodologia de Blanchard e Quah (1989), com o objetivo de avaliarmos a importância relativa dos choques permanentes e transitórios para as variações do consumo. Os resultados apontam que as inovações permanentes são responsáveis pela maior parte das variações no consumo. Este resultado embora rejeite a Hipótese da Renda Permanente, indica que o consumo responde pouco a variações transitórias na renda, ou seja, os choques temporários têm pouca importância para o consumo.
Resumo:
Estuda a problema do dimensionamento de lote em sistemas de produção intermitente, considerando os diferentes estágios do fluxo de materiais em uma empresa incluindo compra, produção e distribuição. Apresenta diversos modelos de mínimo custo, baseados em pressupostos faz como: operação em condições ideais (modelo clássico); existência ou não de descontos de compra; abastecimento instantâneo ou contínuo; existência ou não de restrições na disponibilidade de recursos; demanda determinística ou probabilística; existência ou não de permissão de faltas; itens isolados, itens múltiplos ou agregados de itens; estágio início ou estágios múltiplos; etc.
Resumo:
Amenities value provided by green areas, sea, river and natural landscapes are hardly perceived and incorporated on urban planning and development. In this work, distance and view to protected and non-protected green areas, sea and river were evaluated as to how they increase the housing prices in Natal. Hedonic pricing methods were used with linear models to estimate the marginal implicit value of environmental, residential and neighborhood features. Results on Chapter 1 demonstrate the view to the sea and protected natural areas were largely capitalized on housing prices, while non-protected natural areas didn t display such effect. Housing prices also increase when close to the sea or to parks entrance. However, housing prices fall when houses are near non-protected natural areas. When estates with sea view were excluded, the protected natural areas view and a longer distance to non-protected natural areas increased dwelling prices. Results on Chapter 2 point the sea view as an hedonic variable the contributes strongly to the property selling prices, even though not always as the greatest contributor; furthermore, the property proximity to Dunas Park or City of the Park entrance increases its price, as does closeness to Dunas Park, view to City of the Park or Dunas Park. On the other hand, selling prices diminish if properties are close to City of the Park or Morro do Careca. Results on this study confirm the hedonic pricing methods is an important intrument, capable of revealing to popullation the importance of enviromental amenities and can be used by public managers for creating public policies for conservation and restoration projects
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The replacement of native vegetation by other land uses is one of the main degrading ecosystem agents, being the most important component of terrestrial environments, natural or with different levels of human disturbance, besides being the main substrate used by plants to obtain conditions soil for its development. In this context, there is the need to adopt the use and sustainable management of land systems. The study aimed to evaluate what is forest restoration system more efficient degraded areas, based on the potential recovery of physical, chemical, carbon and biological activity in the soil. The work was conducted in a forest restoration area UTFPR- Campus two neighbors, whose experiment was established in October 2010. The experimental design is completely randomized, with four replications and experimental plot of 40 m wide by 54 m long ( 2160 m2) were collected and six sampling points per plot. The soil is classified as a Typic. The models evaluated are: 1 - natural or passive regeneration; 2 - Nucleation; 3 - Planting trees in the total area under lines fill and diversity (total planting); 4 - Reference area (forest). The collection of soil samples in layers of 0.0-0.05, 0.05-0.10, 0.10-0.20 and 0.20-0.40 m was carried out in October 2013 and evaluated physical attributes of texture, bulk density, total porosity, microporosity and soil macroporosity and stability of water in households, chemical properties, and total organic carbon (TOC) and physical particle size fractionation and soil biological activity. To find the best forest restoration model, we designed a Restoration Quality Weighted Index for each variable analyzed. Natural regeneration and total plantation showed generally better soil aggregation over 0.10 m and nucleation volume of similar porosity the forest for these layers. There were no differences between the models below 0.10 m for the variables aggregation and soil porosity. The nucleation template had the lowest bulk density, but being greater than the density in the layer forest 0.05-0.10 m, however, was similar to below 0.10 m above the ground. The models had chemical properties similar to or greater than the forest. The forest had the highest stock of COT and carbon associated with minerals (CAM), but natural regeneration was similar to the particulate organic carbon (POC) in the superficial layers of the soil (0-0.10 m), below 0, 10 m, the forest showed higher stock of COT and COP on the ground. The highest peak of C-CO2 emissions occurred in the 28-35 day range where the total plantation was similar to forest. After four years of experiments, it was found that the effect of restoration methods on physical attributes and soil carbon restricted to 0.10 m deep.
Resumo:
Estudiar los medios de comunicación significa estudiar al hombre, la sociedad en la que vive, su evolución y las perspectivas de desarrollo futuro. Después de haber puntualizado brevemente los avances tecnológicos salientes en la historia del hombre y de haber identificado las características más relevantes de las diversas redefiniciones antropológicas que siguieron a la introducción de algunos nuevos medios, nos detendremos principalmente en el estudio de las peculiaridades de los instrumentos de comunicación de masa más modernos, de la fotografía al cine, de la televisión a Internet. El objetivo principal de este aporte, lejos de querer proveer sistemas teóricos definitivos, es trazar un conjunto coherente de temáticas capaces de suscitar nuevas y proficuas cuestiones y de promover un debate abierto a los más diversos aportes, con particular atención a los avances de las comunicaciones telemáticas.