1000 resultados para Modelo VAR
Resumo:
O prêmio de inflação é calculado pela diferença entre a inflação implícita (diferença entre a taxa de juro nominal e a taxa de juro real encontrada nos títulos públicos) e a projeção de inflação dos agentes econômicos. A mediana do prêmio de inflação no Brasil varia entre 0.2% e 0.5% ao ano. O presente artigo encontra evidência empírica de que um aumento na incerteza dos agentes sobre a expectativa de inflação impacta positivamente o prêmio de inflação. O grau de incerteza dos agentes é medido neste trabalho pelo desvio padrão das projeções de inflação no relatório Focus do Banco Central. O primeiro modelo VAR foi testado com o desvio padrão e os prêmios de inflação para os horizontes de 3, 6, 9, 12, 24 e 36 meses, e apresentou resposta estatisticamente significativa positiva a um impulso no desvio padrão para todos os prêmios exceto os de horizontes de 3 e 6 meses. As respostas ao impulso são semelhantes para os diferentes horizontes. Um segundo modelo VAR foi testado com o desvio padrão, o prêmio de inflação com horizonte de 12 meses, a inclinação entre os prêmios de horizonte de 6 e 24 meses e uma borboleta entre os prêmios de horizonte de 3, 12 e 36 meses para verificar se a incerteza impacta também a forma da curva de prêmio de inflação. Esse não apresentou resposta estatisticamente significativa a um impulso no desvio padrão. Concluiu-se que a incerteza dos agentes impacta a curva de prêmio de inflação em nível, porém sem efeitos significativos no formato da curva.
Resumo:
O estudo teve como objetivo avaliar a capacidade preditiva dos modelos de estimação do risco de mercado em momentos de crises financeiras. Para isso, foram testados modelos de estimação do Value-at-Risk (VaR) aplicados aos retornos diários de carteiras compostas por índices de ações de países desenvolvidos e emergentes. Foram testados o modelo VaR de Simulação Histórica, modelos ARCH multivariados (Bekk, Vech e CCC), Redes Neurais Artificiais e funções Cópulas. A amostra de dados refere-se aos períodos de duas crises financeiras internacionais, Crise Asiática, de 1997, e Crise do Sub Prime dos EUA, de 2008. Os resultados apontaram que os modelos ARCH multivariados (Vech e Bekk) e Cópula - Clayton tiveram desempenho semelhantes, com bons ajustes em 100% dos testes. Diferentemente do que era esperado, não foi possível perceber diferenças significativas entre os ajustes para países desenvolvidos e emergentes e os momentos de crise e normal.
Resumo:
Objetivo. O objetivo deste artigo é aferir causalidade entre a ação preferencial da Petrobrás (PETR4) com o mercado futuro de commodities de petróleo (contratos com primeiro vencimento CL1) e o índice futuro do S&P 500 (contratos com primeiro vencimento, SP1). Metodologia. Utilizamos o vetor auto-regressivo (VAR) e o vetor de correção de erros (VEC)para descrever a estrutura de interdependência entre as variáveis. Achados. Os testes de causalidade indicaram que a commodity de petróleo e o índice de ações norte-americano Granger causam PETR4. Verificamos que um modelo VAR(1) é o mais adequado para capturar o efeito cruzado entre as variáveis. Por fim, os testes indicaram que o modelo do tipo VEC melhora as previsões para as variáveis PETR4 e CL1. Limitações. Apesar de utilizar um grande volume de informações intradiárias, os dados referem-se à apenas seis meses de observações, o que pode viesar os resultados obtidos. Originalidade/Valor. O estudo é pioneiro (ao menos no conhecimento dos autores) em averiguar relações entre esses ativos.
Resumo:
En este trabajo se pretende establecer que factores fundamentales influyen en el movimiento de la tasa de cambio COP/USD en un periodo intra-diario de forma horaria, para así poder establecer un modelo que ayude a estimar la prima de riesgo de la tasa de cambio colombiana -- Basados en Pantoja (2012)1, se pretende la aplicación de un modelo VAR (vectores autorregresivos) para estimar la prima de riesgo de la tasa de cambio, donde se encontró que este modelo no es el modelo más adecuado para explicar la serie de datos utilizada, por lo que se propone un modelo GARCH para modelar la serie -- Se encontró que hay factores fundamentales que explican la prima, como lo son el WTI, el S&P500 y la tasa de cambio EUR/USD
Resumo:
Esta nota tiene como objetivo incorporar en la proyección combinada de inflación el pronóstico de la tasa de inflación proveniente del Modelo Pass-Through. Los otros modelos individuales utilizados en la combinación de inflación corresponden a dos modelos autorregresivos (ARMA e Ingenuo) y dos modelos de vectores autorregrevios (VAR lineal y no lineal).Con respecto a las ponderaciones utilizadas actualmente para realizar la proyección de inflación se observa: i) una pérdida de ponderación para el modelo ingenuo; ii) un aumento en el peso asignado al modelo de petróleo; y iii) prácticamente la exclusión del modelo ARMA y VAR.. No obstante el cambio en la ponderación, la incorporación del modelo Pass Trough no mejoró la precisión de las proyecciones de inflación, evaluada por medio de la raíz del error cuadrático medio (RECM).Dados los resultados anteriores se sugiere el empleo de la nueva versión de combinación en las futuras proyecciones de inflación por cuanto: a) el modelo ingenuo pierde participación, solventando una de las principales limitaciones de la versión anterior, b) se incorpora un modelo con mayor contenido teórico-económico para explicar la inflación, c) se excluyen modelos de tipo autorregresivo y de vectores autorregresivos, los cuales se aduce no tienen como respaldo un modelo económico y d) no desmejora la precisión de la proyección, medida por la RECM.Así, con las nuevas ponderaciones e información a agosto la proyección combinada de la tasa de inflación a diciembre del 2003 es 8,9%, para diciembre del 2004 es 8,3% y en 24 meses es 8,0%. Estos resultados no difieren en gran medida de los reportados en el informe DIE-DCS-68-2003-IT, en el cual la inflación interanual se proyectaba en 8,8% para diciembre 2003 y 2004 y en 8,7% en 24 meses.
Resumo:
Doutoramento em Economia
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Matemática e Aplicações - Actuariado, Estatística e Investigação Operacional
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
INTRODUÇÃO As culturas geralmente apresentam um desenvolvimento e rendimento intensamente influenciados pelas condições do clima e da humidade do solo. A deficiência de água no solo é, frequentemente, o factor mais limitante para a obtenção de altos rendimentos, embora o excesso pode, também, ser prejudicial, ou perante o uso da má qualidade de água, a salinização do solo. Assim para que a gestão de irrigação se processe dentro de um critério racional, é necessário o controle da humidade do solo, durante todo o ciclo da cultura para, deste modo, determinar o momento da irrigação e a quantidade de água a ser aplicada. Com este propósito é necessário o conhecimento do complexo fenómeno da interacção solo-planta – clima. Em Cabo Verde, geralmente os agricultores utilizam uma mesma instalação de rega para um leque grande de hortícolas cujas distâncias de plantação diferem grandemente de espécie para espécie. O INIDA vem desenvolvendo uma pesquisa que engloba uma sucessão de ensaios com varias hortícolas sobre os mesmos modelos de instalação com o objectivo principal de encontrar modelo (s) de sistema de rega gota a gota de maior resultado sobre a produtividade das hortícolas em geral.
Resumo:
El propósito general de este trabajo de investigación es el de identificar las herramientas que permitan evaluar riesgos, poder determinar un modelo de ayuda para la estructuración de portafolios y así retribuir al inversionista la mejor manera con un premio por riesgo en retorno de su inversión, Además de presentar un instrumento y demostrar las ventajas de su utilización en la valoración de riesgos en portafolios, se pretende distinguir los efectos económicos y financieros que el inversionista enfrenta. Para cumplir con este propósito, se realizo un diagnóstico y análisis de la actividad de los mercados Financieros y de Capitales, determinando los factores más importantes dentro de un modelo de valoración de riesgo para la estructura de un portafolio de renta variable, lo que me permitirá presentar de una manera clara, los aspectos técnicos y económicos que afectan a la estructura de una inversión aplicando la metodología denominada VAR (Valué at Risk); adicionalmente el manejo que se podría dar a las mismas para obtener un mayor beneficio. Los resultados obtenidos y su respectivo análisis constan a lo largo de este trabajo de investigación.
Resumo:
O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.
Resumo:
O objetivo do presente trabalho é verificar se o modelo que combina correção de erros e fatores extraídos de grandes conjuntos de dados macroeconômicos produz previsões mais precisas das taxas de juros do Brasil em relação aos modelos VAR, VECM e FAVAR. Para realizar esta análise, foi utilizado o modelo sugerido por Banerjee e Marcellino (2009), o FAVECM, que consiste em agregar o mecanismo de correção de erros ao modelo proposto por Bernanke, Boivin e Eliasz (2005), o FAVAR. A hipótese é que o FAVECM possuiu uma formulação teórica mais geral. Os resultados mostram que para o mercado brasileiro o FAVECM apresentou ganhos significativos de previsão para as taxas mais longas e horizontes de previsão maiores.
Resumo:
Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.