352 resultados para Equilíbrio econômico - Modelos econométricos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem a finalidade de analisar as evidências de relações de longo prazo entre a taxa de câmbio real (“RER”), a posição internacional de investimentos (“NFA”) e o efeito Balassa-Samuelson (“PREL”) em um grupo de 28 países, grupo este que inclui países em diferentes estágios de desenvolvimento. A metodologia utilizada foi a de testes de cointegração. Os testes aplicados foram desenvolvidos por Bierens (1997), teste não paramétrico, e por Saikkonen e Lütkepohl (2000a, b, c), teste que consiste em primeiro estimar um termo determinístico. Evidências de cointegração são constatadas, em ambos os testes, na maioria dos países estudados. Entretanto, houve diferenças relevantes entre os resultados encontrados através dos dois testes aplicados. Estas diferenças entre os resultados, bem como alguns casos especiais de países que não demonstraram evidências de cointegração, requerem análises mais aprofundadas sobre o comportamento de longo prazo das três variáveis estudadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo tem como objetivo determinar os principais fatores macroeconômicos que influenciam a formação do preço de imóveis, tomando como base o mercado imobiliário residencial da cidade de São Paulo entre os anos de 2001 e 2012. Para capturar o efeito endógeno do PIB, da taxa de juros e da bolsa de valores sobre o preço de imóveis, optou-se por um modelo VAR. Concluiu-se que, dentre as variáveis, o PIB foi o fator mais preponderante na formação do preço, chegando a ter um impacto quase três vezes superior à taxa de juros. Não foram encontradas evidências estatísticas significativas do efeito da bolsa sobre o preço dos imóveis. Constatou-se ainda que choques no PIB e na taxa de juros demoram, no mínimo, um ano para começarem a refletir sobre o preço. Essas conclusões foram mais robustas no período anterior à crise imobiliária americana de 2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa (i) caracteriza o processo de transformação estrutural, (ii) quantifica o seu impacto sobre o crescimento da produtividade agregada do trabalho e (iii) investiga os determinantes do crescimento da produtividade induzido pela transformação estrutural através de um extensivo estudo econométrico. Encontrou-se que, em média, a transformação estrutural desempenhou um papel importante para o crescimento da produtividade agregada em países em desenvolvimento. Em particular, a realocação de trabalhadores entre setores foi capaz de explicar, em média, cerca de 50% do crescimento da produtividade agregada em países da América Latina até a década de oitenta. Dessa década em diante, a tranformação estrutural deixou de contribuir para o crescimento da produtividade nessa região. Esse retrocesso estaria relacionado com a retração de atividades de produtividade relativamente alta, como a indústria de transformação, e com o inchaço do setor de serviços. Em oposição à Mcmillan & Rodrik (2011), os resultados encontrados apontaram para uma relação nula ou muito fraca e, certamente, pouco robusta entre a taxa real de câmbio e o componente estrutural de crescimento da produtividade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo dessa dissertação é analisar o impacto dos movimentos inesperados de variáveis macroeconômicas nos retornos das ações de empresas de diferentes setores. As variáveis macroeconômicas estudadas serão: produto, juros, inflação e preço de commodities. Estudam-se alguns modelos através de diferentes técnicas de regressão para se chegar àquele que tem a melhor especificação. Com o objetivo de melhorar o poder de explicação dos modelos são utilizados os três fatores de Fama e French como variáveis explicativas e outro modelo que além dos fatores de Fama e French incluiu também momentum. Procura-se analisar a magnitude do impacto dos movimentos inesperados das variáveis macroeconômicas e suas relevâncias estatísticas a cada setor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo analisar um método alternativo de estimação do PIB potencial brasileiro através do uso de um modelo com dois setores em trabalho feito por Basu & Fernald (2009) para a economia americana. Apesar de alguns pressupostos fortes, os resultados apontam para ganhos de previsão do produto potencial no longo prazo ao se utilizar um modelo com 2 setores, um de investimento e outro de consumo. Para o curto prazo nem o modelo com 2 setores nem com 1 setor parece replicar os dados da economia brasileira.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em redes de inovação baseadas em trocas de informação, o agente orquestrador se apropria das informações dos atores periféricos, gera inovação e distribui em forma de valor agregado. É sua função promover a estabilidade na rede fazendo com que a mesma tenha taxas não negativas de crescimento. Nos mercados de análise de crédito e fraude, por exemplo, ou bureaus funcionam como agentes orquestradores, concentrando as informações históricas da população que são provenientes de seus clientes e fornecendo produtos que auxiliam na tomada de decisão. Assumindo todas as empresas do ecossistema como agentes racionais, a teoria dos jogos se torna uma ferramenta apropriada para o estudo da precificação dos produtos como mecanismo de promoção da estabilidade da rede. Este trabalho busca identificar a relação de diferentes estruturas de precificação promovidas pelo agente orquestrador com a estabilidade e eficiência da rede de inovação. Uma vez que o poder da rede se dá pela força conjunta de seus membros, a inovação por esta gerada varia de acordo com a decisão isolada de cada agente periférico de contratar o agente orquestrador ao preço por ele estipulado. Através da definição de um jogo teórico simplificado onde diferentes agentes decidem conectar-se ou não à rede nas diferentes estruturas de preços estipuladas pelo agente orquestrador, o estudo analisa as condições de equilíbrio conclui que o equilíbrio de Nash implica em um cenário de estabilidade da rede. Uma conclusão é que, para maximizar o poder de inovação da rede, o preço a ser pago por cada agente para fazer uso da rede deve ser diretamente proporcional ao benefício financeiro auferido pela inovação gerada pela mesma. O estudo apresenta ainda uma simulação computacional de um mercado fictício para demonstração numérica dos efeitos observados. Através das conclusões obtidas, o trabalho cobre uma lacuna da literatura de redes de inovação com agentes orquestradores monopolistas em termos de precificação do uso da rede, servindo de subsídio de tomadores de decisão quando da oferta ou demanda dos serviços da rede.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a estimação e comparação entre modelos VECM com a abordagem de modelos TVECM, na modelagem e estudo do desalinhamento cambial e como o ajuste do câmbio real para que procede. Como estratégia a ser abordada serão considerados modelos de correção de erros com características distintas. Utilizaremos como abordagem linear a técnica de cointegração proposta por Johansen (1988), a abordagem tradicional. Como técnica não linear utilizaremos a abordagem inicialmente proposta por BALKE, FOMBY(1997), que consideram um mecanismo de correção de erros de forma a incorporar características TAR e SETAR. Para a análise da presença ou não de não linearidade na correção de erros entre as séries, foram realizados neste trabalho os testes de Kapetanios, Shin e Snell (2003), Hansen e Seo(2002) e Seo (2006)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho busca medir a credibilidade do Banco Central Brasileiro. Utiliza-se como medida da credibilidade, a variação do prêmio de risco de inflação em função de surpresas inflacionárias de curto prazo no índice IPCA. Primeiro evidencia-se que as expectativas inflacionárias de médio prazo são afetadas pelas surpresas inflacionárias, este efeito é causado por dois motivos, a indexação da economia e/ou a falta de credibilidade da autoridade monetária. Em seguida verifica-se que as surpresas inflacionárias também tem efeito sobre o premio de risco de inflação o que indica falta de credibilidade do banco central.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artigo pretende associar o desempenho dos índices de saúde com saneamento básico nos estados brasileiros e se a filiação partidária afeta ou não esses indicadores. Para elaboração deste trabalho foi montado um banco de dados utilizando a estrutura em dados em painel, referente ao período de 2000 a 2010, com os dados extraídos do SINIS, DataSUS, IBGE e TSE. Foi estimado por modelo de efeitos fixos, corrigindo o poblema de heterocedasticidade da amostra com o Teste de White. Os resultados mostram que não podemos descartar a importância do saneamento. Encontramos evidências do impacto das variáveis de esgotamento sanitário sobre a queda da mortalidade por diarréia aguda (crianças menores de 5 anos).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estimar um modelo empírico para relacionar os gastos em publicidade com a receita das firmas, de forma a servir como ferramenta de tomada de decisão, para isso vamos fazer um estudo de caso da indústria de telecomunicações. A Indústria de comunicação (publicidade) no Brasil, segundo dados do IBGE de 2008, é responsável por 4% do PIB, gerando receitas da ordem 115 bilhões de reais. Com 113 mil empresas que geram 711 mil empregos, ocupam 866 mil pessoas e pagam 11,8 bilhões em salários e encargos. No entanto, a maioria dos gestores de marketing declara não ter instrumentos para medir o impacto de suas ações no resultado das empresas. O modelo empírico será estimado tendo como base dados mensais dos serviços de ligações de longa distância nacional da Embratel para o período de janeiro de 2009 até dezembro de 2011. As informações quase sempre não disponíveis, só puderam ser usadas devido ao compromisso de confidencialidade. A partir de técnicas de cointegração, foi calculada a elasticidade de longo prazo da receita em relação aos gastos com publicidade e ao preço, assim com as respectivas velocidades de ajustamento aos desvios de curto prazo. Os resultados sugerem que a receita responde positivamente às variações dos gastos em publicidade, embora o percentual seja relativamente baixo, através do teorema de Dorfman-Steiner conseguimos indicar que o ponto ótimo da relação entre gastos com publicidade e a receita seria de aproximadamente 20%, respeitadas as limitações do modelo.