230 resultados para Probabilidades - Modelos econométricos


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho se propõe a avaliar a existência de ciclos de margem de subscrição no mercado segurador brasileiro para os grupos de ramos de automóvel, patrimonial, responsabilidade civil e transportes a partir de dados da SUSEP. É feita uma introdução em seguros, uma revisão dos artigos que foram realizados no mundo sobre o assunto assim como os estudos discorrendo sobre as possíveis causas para a existência destes ciclos. Em seguida são apresentadas as técnicas econométricas de séries de tempo estruturais e o teste HEGY utilizadas para a verificação dessa hipótese. Foram encontrados ciclos nos grupos de ramos de automóveis, patrimoniais e transportes e não encontramos evidências de ciclos para responsabilidade civil e nem para o agregado de ramos. Os resultados desse estudo sobre a existência, ou não dos ciclos, assim como sua duração considerando as particularidades de cada tipo de ramo, periodicidade das séries e utilização ou não da despesa de comercialização foram analisados para cada grupo de ramos, considerando suas particularidades. Finalmente se fez um comparativo dos resultados obtidos nesse estudo com o que está na literatura para diversos outros mercados de seguros de outros países.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho tem a finalidade de analisar as evidências de relações de longo prazo entre a taxa de câmbio real (“RER”), a posição internacional de investimentos (“NFA”) e o efeito Balassa-Samuelson (“PREL”) em um grupo de 28 países, grupo este que inclui países em diferentes estágios de desenvolvimento. A metodologia utilizada foi a de testes de cointegração. Os testes aplicados foram desenvolvidos por Bierens (1997), teste não paramétrico, e por Saikkonen e Lütkepohl (2000a, b, c), teste que consiste em primeiro estimar um termo determinístico. Evidências de cointegração são constatadas, em ambos os testes, na maioria dos países estudados. Entretanto, houve diferenças relevantes entre os resultados encontrados através dos dois testes aplicados. Estas diferenças entre os resultados, bem como alguns casos especiais de países que não demonstraram evidências de cointegração, requerem análises mais aprofundadas sobre o comportamento de longo prazo das três variáveis estudadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A doença holandesa tornou-se amplamente conhecida na década de 1960, quando a descoberta repentina de reservatórios de gás natural em território holandês, na região do mar do norte, transformou o país em uma economia rica em recursos. A desagradável consequência que proveio da recém-adquirida abundância de commodities foi o declínio da próspera indústria holandesa, que perdeu sua competitividade devido à valorização do florim holandês, como consequência do aumento do influxo de capital estrangeiro no país. Desde então este fenômeno tem sido observado em diversos países que possuem abundância de commodities. O objetivo desta tese é aplicar o modelo da doença holandesa ao Brasil, já que a maior economia da América latina poderá também ter de encarar a ameaça de se tornar prisioneira da “armadilha das commodities”, devido à sua abundância de recursos naturais. O autor revisa a bibliografia básica abordando o tema geral da doença holandesa e dá enfoque a estudos realizados anteriormente no Brasil. Além disso, os quatro maiores sintomas que caracterizam a doença holandesa são testados: (1) valorização das taxas de câmbio do real, (2) declínio do setor industrial, (3) crescimento do setor de serviços, e (4) aumento dos salários. Todos estes sintomas foram observados e podem ser comprovados através das abordagens de cointegração ou de correlação, com exceção do sintoma número dois. Ainda que estes resultados sejam significativos, há muito outros fatores determinantes que influenciam o desenvolvimento dos sintomas examinados, motivo pelo qual futuros estudos serão necessários para se obtiver conclusões definitivas sobre como o Brasil é afetado pela doença holandesa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudo tem como objetivo determinar os principais fatores macroeconômicos que influenciam a formação do preço de imóveis, tomando como base o mercado imobiliário residencial da cidade de São Paulo entre os anos de 2001 e 2012. Para capturar o efeito endógeno do PIB, da taxa de juros e da bolsa de valores sobre o preço de imóveis, optou-se por um modelo VAR. Concluiu-se que, dentre as variáveis, o PIB foi o fator mais preponderante na formação do preço, chegando a ter um impacto quase três vezes superior à taxa de juros. Não foram encontradas evidências estatísticas significativas do efeito da bolsa sobre o preço dos imóveis. Constatou-se ainda que choques no PIB e na taxa de juros demoram, no mínimo, um ano para começarem a refletir sobre o preço. Essas conclusões foram mais robustas no período anterior à crise imobiliária americana de 2008.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa (i) caracteriza o processo de transformação estrutural, (ii) quantifica o seu impacto sobre o crescimento da produtividade agregada do trabalho e (iii) investiga os determinantes do crescimento da produtividade induzido pela transformação estrutural através de um extensivo estudo econométrico. Encontrou-se que, em média, a transformação estrutural desempenhou um papel importante para o crescimento da produtividade agregada em países em desenvolvimento. Em particular, a realocação de trabalhadores entre setores foi capaz de explicar, em média, cerca de 50% do crescimento da produtividade agregada em países da América Latina até a década de oitenta. Dessa década em diante, a tranformação estrutural deixou de contribuir para o crescimento da produtividade nessa região. Esse retrocesso estaria relacionado com a retração de atividades de produtividade relativamente alta, como a indústria de transformação, e com o inchaço do setor de serviços. Em oposição à Mcmillan & Rodrik (2011), os resultados encontrados apontaram para uma relação nula ou muito fraca e, certamente, pouco robusta entre a taxa real de câmbio e o componente estrutural de crescimento da produtividade.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste artigo, é analisado, por meio de um modelo DSGE novo-keynesiano, o efeito da redução do imposto sobre o consumo, tal como os impactos das elevações da tarifa incidente sobre a renda do trabalho e dos gastos do governo, sobre o produto e o déficit público em uma economia com armadilha da liquidez. Ao permitir que a duração da armadilha da liquidez seja determinada endogenamente é possível concluir que os efeitos marginais dependem da magnitude do choque dado e de quais instrumentos de política fiscal estão sendo usados. Desta forma, para avaliar o impacto desses instrumentos torna-se necessário observar os seus efeitos médios. Com base nessa medida e na economia em questão, uma política fiscal pode apresentar os maiores efeitos marginais para cada duração da armadilha da liquidez, mas não necessariamente será aquela que causará os maiores impactos sobre o produto e o déficit público.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo dessa dissertação é analisar o impacto dos movimentos inesperados de variáveis macroeconômicas nos retornos das ações de empresas de diferentes setores. As variáveis macroeconômicas estudadas serão: produto, juros, inflação e preço de commodities. Estudam-se alguns modelos através de diferentes técnicas de regressão para se chegar àquele que tem a melhor especificação. Com o objetivo de melhorar o poder de explicação dos modelos são utilizados os três fatores de Fama e French como variáveis explicativas e outro modelo que além dos fatores de Fama e French incluiu também momentum. Procura-se analisar a magnitude do impacto dos movimentos inesperados das variáveis macroeconômicas e suas relevâncias estatísticas a cada setor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a estimação e comparação entre modelos VECM com a abordagem de modelos TVECM, na modelagem e estudo do desalinhamento cambial e como o ajuste do câmbio real para que procede. Como estratégia a ser abordada serão considerados modelos de correção de erros com características distintas. Utilizaremos como abordagem linear a técnica de cointegração proposta por Johansen (1988), a abordagem tradicional. Como técnica não linear utilizaremos a abordagem inicialmente proposta por BALKE, FOMBY(1997), que consideram um mecanismo de correção de erros de forma a incorporar características TAR e SETAR. Para a análise da presença ou não de não linearidade na correção de erros entre as séries, foram realizados neste trabalho os testes de Kapetanios, Shin e Snell (2003), Hansen e Seo(2002) e Seo (2006)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho busca medir a credibilidade do Banco Central Brasileiro. Utiliza-se como medida da credibilidade, a variação do prêmio de risco de inflação em função de surpresas inflacionárias de curto prazo no índice IPCA. Primeiro evidencia-se que as expectativas inflacionárias de médio prazo são afetadas pelas surpresas inflacionárias, este efeito é causado por dois motivos, a indexação da economia e/ou a falta de credibilidade da autoridade monetária. Em seguida verifica-se que as surpresas inflacionárias também tem efeito sobre o premio de risco de inflação o que indica falta de credibilidade do banco central.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este artigo pretende associar o desempenho dos índices de saúde com saneamento básico nos estados brasileiros e se a filiação partidária afeta ou não esses indicadores. Para elaboração deste trabalho foi montado um banco de dados utilizando a estrutura em dados em painel, referente ao período de 2000 a 2010, com os dados extraídos do SINIS, DataSUS, IBGE e TSE. Foi estimado por modelo de efeitos fixos, corrigindo o poblema de heterocedasticidade da amostra com o Teste de White. Os resultados mostram que não podemos descartar a importância do saneamento. Encontramos evidências do impacto das variáveis de esgotamento sanitário sobre a queda da mortalidade por diarréia aguda (crianças menores de 5 anos).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.