170 resultados para Modelos multivariados
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones
Resumo:
O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.
Resumo:
O presente estudo constitui-se de uma análise de dados referentes a testes de ciências aplicados a alunos de quarta, sexta e oitava séries do primeiro grau e do ultimo- ano do segundo grau, de escolas publicas e particulares, de dois países latino americanos, Brasil e Argentina. Tivemos por objetivo examinar como as diferentes habili dades cognitivas, definidas segundo a taxionomiade B.S.Bloom, se distribuem nos diferentes estratos sociais. Tinhamos por hipote se que elas se distribuem de modo diferente e que as habilida des mais complexas como compreensão , aplicação de conceitos e raciocínio são mais afetadas pelos fatores socio-econômicos e culturais em contraste com os processos de memorização. Procedemos às análises dos dados utilizando análises de variância das médias e modelos multivariados de regressão. Os re sultados que emergem dessas análises revelam que alunos cuja ocu paçao do pai ou educação da mãe são de níveis mais elevados ou sãode áreas urbanas com maiores recursos socio-econômicos tendem a ter melhor desempenho nas questões mais complexas de compree~ sao, aplicação e raciocínio. Entretanto, em questões de memó ria, as diferenças tendem a ser menores. Em resumo, há uma dis tribuição pronunciada de habilidades mais complexas nas camadas mais altas dos estratos.sociais. A confiabilidade dos resulta dos, ou seja, seus níveis de significância estatística, é para o fator escola e-aceitâvel para as outras variáveis. alta Os resultados apresentados tem algumas implicações con cretas. Quanto mais memorizado é o ensino, mais ê accessível aos menos preparados para o processo escolar. Por outro lado,há cada vez mais um esforço explIcito e consciente de enfatizar em provas e exames as dimensões mais somplexas de compreensão e ra ciocínio. Os dados obtidos mostram que, na medida em que se va lorizam os processos superiores, o ensino tende a se tornar mais elitizado. Ao reduzir a participação das questões de memória in troduzimos uma dificuldade adicional para o pobre concorrer com o rico. Evidencia-se, portanto, que a democratização de partici paçao no processo escolar e a melhoria dos métodos de seleção podem ser objetivos conflitantes. Talvez a implicação mais importante -- dada a inevitabilidade da evoiliução do ensino nesse sen tido -- seja a necessidade de urna política educacional delibera da no sentido de melhorar a capacidade das escolas que atendem aos menos favorecidos pela situação econômica e educacional fami liar.
Resumo:
O presente estudo investiga a existência de contágio financeiro entre os países do G20, com base em uma análise sobre os retornos dos principais índices de ações, abrangendo o período de 2000 a 2012. A abordagem utilizada consiste na utilização de modelos multivariados de volatilidade da família DCC-GARCH, na versão proposta por Engle e Sheppard (2001). Com base nos testes efetuados, conclui-se que houve mudanças estruturais nas séries analisadas em praticamente todos os 14 países analisados, sendo que os resultados obtidos demonstram evidências favoráveis para a hipótese de contágio financeiro entre países do G20. Verificou-se também que dentre as diversas crises financeiras ocorridas durante o período analisado, a Crise do Subprime destaca-se das demais crises, devido a sua magnitude e velocidade com que se propagou, afetando tanto países desenvolvidos como países emergentes.
Resumo:
Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
propósito deste trabalho estudar as implicações econômicas da previdência social no contexto do mais amplamente difundido modelo de gerações superpostas (OLG), construído por Paul Samuelson (1958) complementado por Peter Diamond (1965) exemplifica-las mediante simulações. Para tanto, serão utilizadas três versões destes modelos, do próprio Diamond (1965), de Robert Barro (1974) de Marco Martins (1995), as quais se diferenciam pela maneira como cada uma delas incorpora demanda por capital dos agentes. Serão examinados em especial os efeitos da previdência sobre acumulação de capital sobre bem-estar da sociedade.
Resumo:
None
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Resumo:
O objetivo deste trabalho é testar diversas especificações de modelos de ciclos reais de negócios em pequena economia aberta e avaliar em que medida eles conseguem reproduzir as características dos ciclos econômicos brasileiros. Um problema recorrente nos modelos de pequena economia aberta é que sua dinâmica de equilíbrio depende de condições iniciais e apresenta características não estacionárias. Neste trabalho estão presentes três diferentes especificações de modelos, que diferem na forma como a estacionariedade é induzida, são eles: 1) modelo com taxa de desconto endógena; 2) modelo com prêmio de risco elástico à dívida; 3) modelo com mercados completos. Também é testada a sensibilidade dos modelos a duas especificações de preferências - como em Greenwood et alli(1988) e como em Hansen(1985). Os modelos conseguiram replicar características importantes dos ciclos internacionais - como a correlação negativa entre a balança comercial e o produto, e a característica pró-cíclica das outras variáveis. Apenas o modelo com prêmio de risco conseguiu reproduzir a alta volatilidade do consumo brasileiro, sendo este resultado sensível à especificação de preferências. O choque de juros mostrou-se pouco importante para a dinâmica de todos os modelos e o custo de ajustamento foi essencial para a obtenção dos principais resultados.
Resumo:
None
Resumo:
Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.