248 resultados para Países de risco (Economia)


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este artigo apresenta a utilização de Beta e variação de Beta dos ativos pertencentes ao Ibovespa como novos critérios para a construção de carteiras vencedoras e perdedoras em estratégias de momento. Os resultados mostram que as estratégias de momento, com base em critérios de maior ou menor Beta e de variação de Beta dos ativos pertencentes ao Ibovespa, geram retornos positivos ao longo de períodos subsequentes de 6 meses e 12 meses, porém apontam que estas estratégias, quando aplicadas e renovadas a cada mudança do principal índice bursátil brasileiro, apresentaram-se menos rentáveis do que as estratégias habituais baseadas no retorno total dos ativos no período entre 1995 a 2013.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Bali, Cakici e Chabi-Yo (2011) introduziram uma nova medida de risco, englobando as medidas de risco de Aumann e Serrano (2008) e Foster e Hart (2009). Trata-se de um modelo de medida de risco implícito de opções baseado na distribuição neutra ao risco dos retornos de ativos financeiros. Este trabalho se propõe a calcular a medida de risco de Bali, Cakici e Chabi-Yo (2011) com base nas opções de petróleo, a commodity mais importante da economia mundial. Como os preços das opções incorporam a expectativa do mercado, a medida de risco calculada é considerada forward-looking. Desta forma, esse trabalho também analisa a significância dessa medida em prever a atividade econômica futura. Os resultados indicaram poder preditivo em relação ao índice VIX, o qual representa a incerteza do mercado financeiro, e ao índice CFNAI, indicador da atividade econômica norte-americana.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Os depósitos sem vencimento são uma importante fonte de funding das instituições financeiras, e apresentam um desafio na gestão dos riscos de juros e liquidez, por não apresentarem um vencimento definido. Os depositantes podem sacar o montante de suas aplicações, bem como aportar novos volumes, a qualquer tempo sem a incidência de penalidades. Atualmente não há um modelo regulatório padronizado para mensurar o risco de juros desses produtos, bem como seu requerimento de capital. No entanto, novas regulamentações tem surgido com o intuito de, dentre outras coisas, trazer certa padronização para a modelagem dos depósitos sem vencimento, aumentando a comparabilidade do perfil de risco entre instituições financeiras. Essas regulamentações aumentam a necessidade de modelos quantitativos que definam um perfil de run-off da carteira ou de evolução dessa carteira no tempo. Este estudo tem como objetivo propor uma abordagem para modelar os fluxos de caixa esperados dos depósitos de poupança que possibilitará calcular o risco de mercado e apresentar sua aplicação dentro das novas normas de requerimento de capital que estão sendo propostas. Como resultado calculamos o risco de mercado e requerimento de capital para um balanço teórico.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Recorrendo a duas abordagens diferentes, regressão e correlação, e cobrindo os últimos vinte anos de dados diários para sete países, esta tese investiga as propriedades “safe haven” e “hedge” dos metais preciosos, em comparação com acções internacionais para um dado estado da economia. Adicionalmente, esta tese avalia o desempenho de diferentes portfolios, dentro e fora da amostra, com o objectivo de verificar se o investimento em metais preciosos poderá ajudar a atenuar a gestao do risco por parte do investidor. Os principais resultados são os que se seguem: (i) O ouro é o melhor metal precioso para um “hedging” internacional em oposição às acções (ii) O ouro permite obter valiosos benefícios de gestão de risco do portfolio (iii) 60/40 dos portofios atribuidos com ouro permitem ao investidor obter bons resultados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nos últimos anos o mercado de crédito brasileiro apresentou grande crescimento em termos de volume e modalidade de operações de crédito. Além disso, observou-se também o aumento da participação dos bancos nesse setor, principais intermediários financeiros da economia. Com isso, em um mercado em desenvolvimento, torna-se cada vez mais importante a correta avaliação e administração do risco financeiro envolvido nas operações: o risco de crédito. Nesse contexto, a classificação de rating surge como referência para investidores. No entanto, como o mercado bancário brasileiro ainda é pouco desenvolvido, apenas instituições de grande porte são classificados pelas agências de rating em funcionamento no país. Este trabalho tem como objetivo o desenvolvimento de uma metodologia de rating baseada no modelo ordered probit, que seja capaz de replicar o nível de rating de uma determinada agência, e assim conseguir estimar o nível de rating para aqueles bancos que não têm a referida classificação de rating

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O tema central deste trabalho é a avaliação de riscos em estratégias de investimentos de longo prazo, onde a necessidade de um exemplo prático direcionou à aplicação de Asset Liability Models em fundos de pensão, mais especificamente, a planos de benefício definido. Com os instrumentos de análise apresentados, acreditamos que o investidor com um horizonte de retorno de longo prazo tenha uma percepção mais acurada dos riscos de mercado a que está exposto, permitindo uma seleção de carteiras mais adequada aos objetivos de gestão. Para tanto, a inclusão de variáveis de decisão que procuram quantificar os objetivos de gestão - indo além do modelo simplificado de média-variância - exerce papel de fundamental importância.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo do trabalho é realizar uma análise da estratégia long-short feita pelos fundos de investimentos, no mercado acionário, e testar a neutralidade dos fundos long-short brasileiros ao principal índice de mercado, o Ibovespa, utilizando os testes de neutralidade de Patton (2006) como referência. As explicações da estratégia long-short se divide em duas partes: a estratégia de pairs trading pela arbitragem estatística, e a estratégia de pairs trading pela arbitragem de risco. O resultado encontrado mostra que quase a totalidade dos fundos analisados (85%) falha no teste de neutralidade em relação ao mercado acionário, mais especificamente ao Ibovespa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.