983 resultados para Medida de Risco


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho busca-se investigar empiricamente, no caso brasileiro, o comportamento da medida de risco de Foster e Hart, sua capacidade de estimação de retornos e se ela pode ser usada como indicador do momento do mercado. Esta medida é de fácil assimilação e cálculo, respeita axiomas de coerência, sendo indiferente a aversão ao risco dos agentes e mensurada na mesma unidade dos retornos. Encontram-se evidências de que o risco reage a momentos de estresse do mercado e da existência de um relacionamento positivo com retornos futuros.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Eletrotécnica

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Value at Risk (VaR) e Expected Shortfall (ES) são modelos quantitativos para mensuração do risco de mercado em carteiras de ativos financeiros. O propósito deste trabalho é avaliar os resultados de tais modelos para ativos negociados no mercado brasileiro através de quatro metodologias de backtesting - Basel Traffic Light Test, Teste de Kupiec, Teste de Christoffersen e Teste de McNeil e Frey – abrangendo períodos de crise financeira doméstica (2002) e internacional (2008). O modelo de VaR aqui apresentado utilizou duas abordagens – Paramétrica Normal, onde se assume que a distribuição dos retornos dos ativos segue uma Normal, e Simulação Histórica, onde não há hipótese a respeito da distribuição dos retornos dos ativos, porém assume-se que os mesmos são independentes e identicamente distribuídos. Também foram avaliados os resultados do VaR com a expansão de Cornish-Fisher, a qual visa aproximar a distribuição empírica a uma distribuição Normal utilizando os valores de curtose e assimetria para tal. Outra característica observada foi a propriedade de coerência, a qual avalia se a medida de risco obedece a quatro axiomas básicos – monotonicidade, invariância sob translações, homogeneidade e subaditividade. O VaR não é considerado uma medida de risco coerente, pois não apresenta a característica de subaditividade em todos os casos. Por outro lado o ES obedece aos quatro axiomas, considerado assim uma medida coerente. O modelo de ES foi avaliado segundo a abordagem Paramétrica Normal. Neste trabalho também se verificou através dos backtests, o quanto a propriedade de coerência de uma medida de risco melhora sua precisão.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Bali, Cakici e Chabi-Yo (2011) introduziram uma nova medida de risco, englobando as medidas de risco de Aumann e Serrano (2008) e Foster e Hart (2009). Trata-se de um modelo de medida de risco implícito de opções baseado na distribuição neutra ao risco dos retornos de ativos financeiros. Este trabalho se propõe a calcular a medida de risco de Bali, Cakici e Chabi-Yo (2011) com base nas opções de petróleo, a commodity mais importante da economia mundial. Como os preços das opções incorporam a expectativa do mercado, a medida de risco calculada é considerada forward-looking. Desta forma, esse trabalho também analisa a significância dessa medida em prever a atividade econômica futura. Os resultados indicaram poder preditivo em relação ao índice VIX, o qual representa a incerteza do mercado financeiro, e ao índice CFNAI, indicador da atividade econômica norte-americana.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Essa dissertação busca identificar os determinantes da duração da dívida pública brasileira no período posterior ao plano Real. Primeiramente foi feita uma análise sobre o que sugere a literatura a respeito da gestão da dívida pública, especificamente, quais devem ser a composição e estrutura de vencimentos da dívida para atingir os objetivos da autoridade fiscal. Examinamos também as mudanças no perfil da dívida pública brasileira após a introdução do plano Real, que causou uma melhora na duração da dívida emitida em ofertas públicas inferior àquela registrada pelo prazo médio no mesmo período. Essa divergência se deu por conta da massiva emissão de títulos indexados à taxa Selic, LBCs e LFTs. Esses títulos, segundo cálculo do Banco Central, apresentam duração de 1 dia e prazo médio igual ao seu prazo de vencimento. Nesse sentido, a estratégia adotada pelo Tesouro Nacional tem como objetivo diminuir a participação da dívida indexada à Selic e aumentar as parcelas em títulos pré-fixados e aqueles corrigidos por índices de preços. Tendo em vista a investigação teórica e as experiências internacionais e a brasileira, realizamos um estudo empírico dos determinantes da duração da dívida pública brasileira para o período entre janeiro de 1997 e setembro de 2007. Vimos que quanto maior o esforço fiscal, ou seja, menor razão dívida/ PIB e maior superávit primário, maior será a duração da dívida pública. Por outro lado, existe uma relação positiva entre a taxa de inflação e a duração. No que se refere ao risco de mercado ou externo, quanto maior a medida de risco do índice VIX, menor será a duração da dívida pública.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O grau de liberdade da política monetária é uma questão muito relevante em um país que decide adotar um regime de metas inflacionárias e câmbio flutuante. Caso a autoridade monetária desse país não tenha liberdade para atuar, o regime de metas pode ser ineficiente. Em especial, caso esse país se encontre numa situação de Dominância Fiscal, a política monetária pode ter efeitos perversos sobre a relação dívida/PIB, aumentando seu prêmio de risco soberano e causando um aumento na probabilidade de default implícita em seus títulos soberanos. O intuito desse trabalho é realizar o teste de dominância a partir de um modelo proposto por Olivier Blanchard em 2004, e testar primeiro se o país se encontrava em dominância em 2002, 2003 e depois analisar o resultado desse modelo até novembro de 2005. Algumas modificações de variáveis utilizadas, medidas de risco e taxa de juros são propostas e é acrescido ao modelo um teste de estabilidade de coeficientes e a incerteza causada no período eleitoral em 2002. Além disso, é analisada a reação do Banco Central no período, para identificar se sua reação compartilhava da visão de dominância que o modelo original apresentava ou não. A conclusão é que o Brasil, mesmo após as alterações sugeridas, ainda se encontra numa situação de dominância fiscal segundo a descrição do modelo. Porém, o resultado final é cerca de 20% do originalmente observado em 2004, resultando em uma liberdade de atuação significativamente maior para a autoridade monetária no Brasil em 2002 e 2003. O Banco Central parece ter reagido a mudanças de expectativa de inflação e não parecia compartilhar um diagnóstico de dominância fiscal ao longo de 2002. As eleições foram significativas para explicar aumento da probabilidade de default, mas não alteram significativamente o resultado do teste após as mudanças de variáveis. A medida de risco proposta resulta em um modelo melhor para medir dominância no Brasil. A mensagem final é que o Brasil ainda precisa se preocupar com as restrições fiscais, mas elas são menores que o modelo original propunha.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese pretende analisar a questão de ciclos políticos eleitorais em dois estudos, sendo o primeiro deles um teste empírico sobre a existência de ciclos políticos eleitorais nos municípios brasileiros e sua relação com a interação estratégica e o segundo faz uma investigação a respeito da existência de ciclos políticos eleitorais na taxa de câmbio, considerando não apenas o evento eleitoral, como também o início propaganda eleitoral gratuita nos meios de comunicação. O primeiro estudo busca testar a teoria de ciclos políticos eleitorais para os municípios brasileiros, levando em consideração as variáveis fiscais da microrregião, bem como sua contrapartida política. Em particular, este trabalho adiciona controles espaciais (fiscais e políticos) ao modelo tradicional de ciclos políticos eleitorais. O teste econométrico foi realizado para o período entre 1997 e 2008 usando a técnica de dados em painel com instrumentos, seguindo Lockwood e Migali (2009). Os resultados encontrados nas estimações sugerem que existe interação espacial para as despesas de saúde e educação (efeito marginal médio de R$ 1,42 per capita), mas não encontramos evidência de ciclo político por interações espaciais para estes gastos. Já para os gastos com investimentos, o ciclo político eleitoral é conduzido não por características intrínsecas do próprio município, mas sim pelo fato de que os gastos dos municípios localizados ao redor influenciam positivamente nos investimentos do município em questão (efeito marginal médio de R$ 1,23 per capita). No segundo estudo foi desenvolvido um teste empírico para tentar captar a relação dos momentos eleitorais (considerando as três últimas eleições presidenciais – 1998, 2002 e 2006) com a taxa de câmbio real no Brasil. O exercício estima a relação da taxa de câmbio com dummies de eleição e de propaganda eleitoral gratuita, através de modelos GARCH e EGARCH. Estima-se o efeito destas variáveis sobre a média da taxa de câmbio e a sua volatilidade, que pode ser aproximada como uma medida de risco. Os resultados encontrados sugerem que em 1998 o incumbente pode ter atuado não diretamente na apreciação cambial, mas sim na redução da volatilidade associada, diferentemente do que sugere a literatura associada a esta questão (como Lobo e Tufte (1998) e Leblang e Bernhard (2006)). Em 2006, para a variável de propaganda eleitoral, os resultados sugerem que a taxa de câmbio foi apreciada e também a sua volatilidade foi reduzida, quando da divulgação das pesquisas eleitorais, o que pode sugerir um indício de ciclo político eleitoral.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esse é um dos primeiros trabalhos a endereçar o problema de avaliar o efeito do default para fins de alocação de capital no trading book em ações listadas. E, mais especificamente, para o mercado brasileiro. Esse problema surgiu em crises mais recentes e que acabaram fazendo com que os reguladores impusessem uma alocação de capital adicional para essas operações. Por essa razão o comitê de Basiléia introduziu uma nova métrica de risco, conhecida como Incremental Risk Charge. Essa medida de risco é basicamente um VaR de um ano com um intervalo de confiança de 99.9%. O IRC visa medir o efeito do default e das migrações de rating, para instrumentos do trading book. Nessa dissertação, o IRC está focado em ações e como consequência, não leva em consideração o efeito da mudança de rating. Além disso, o modelo utilizado para avaliar o risco de crédito para os emissores de ação foi o Moody’s KMV, que é baseado no modelo de Merton. O modelo foi utilizado para calcular a PD dos casos usados como exemplo nessa dissertação. Após calcular a PD, simulei os retornos por Monte Carlo após utilizar um PCA. Essa abordagem permitiu obter os retornos correlacionados para fazer a simulação de perdas do portfolio. Nesse caso, como estamos lidando com ações, o LGD foi mantido constante e o valor utilizado foi baseado nas especificações de basiléia. Os resultados obtidos para o IRC adaptado foram comparados com um VaR de 252 dias e com um intervalo de confiança de 99.9%. Isso permitiu concluir que o IRC é uma métrica de risco relevante e da mesma escala de uma VaR de 252 dias. Adicionalmente, o IRC adaptado foi capaz de antecipar os eventos de default. Todos os resultados foram baseados em portfolios compostos por ações do índice Bovespa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para otimizar carteiras de ativos financeiros. A metodologia proposta, baseada em interpoladores universais tais quais as Redes Neurais Artificiais e a Krigagem, permite aproximar a superfície de risco e consequentemente a solução do problema de otimização associado a ela de forma generalizada e aplicável a qualquer medida de risco disponível na literatura. Além disto, a metodologia sugerida permite que sejam relaxadas hipóteses restritivas inerentes às metodologias existentes, simplificando o problema de otimização e permitindo que sejam estimados os erros na aproximação da superfície de risco. Ilustrativamente, aplica-se a metodologia proposta ao problema de composição de carteiras com a Variância (controle), o Valor-em-Risco (VaR) e o Valor-em-Risco Condicional (CVaR) como funções objetivo. Os resultados são comparados àqueles obtidos pelos modelos de Markowitz e Rockafellar, respectivamente.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.