1000 resultados para modelos de risco
Resumo:
Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.
Resumo:
Value at Risk (VaR) e Expected Shortfall (ES) são modelos quantitativos para mensuração do risco de mercado em carteiras de ativos financeiros. O propósito deste trabalho é avaliar os resultados de tais modelos para ativos negociados no mercado brasileiro através de quatro metodologias de backtesting - Basel Traffic Light Test, Teste de Kupiec, Teste de Christoffersen e Teste de McNeil e Frey – abrangendo períodos de crise financeira doméstica (2002) e internacional (2008). O modelo de VaR aqui apresentado utilizou duas abordagens – Paramétrica Normal, onde se assume que a distribuição dos retornos dos ativos segue uma Normal, e Simulação Histórica, onde não há hipótese a respeito da distribuição dos retornos dos ativos, porém assume-se que os mesmos são independentes e identicamente distribuídos. Também foram avaliados os resultados do VaR com a expansão de Cornish-Fisher, a qual visa aproximar a distribuição empírica a uma distribuição Normal utilizando os valores de curtose e assimetria para tal. Outra característica observada foi a propriedade de coerência, a qual avalia se a medida de risco obedece a quatro axiomas básicos – monotonicidade, invariância sob translações, homogeneidade e subaditividade. O VaR não é considerado uma medida de risco coerente, pois não apresenta a característica de subaditividade em todos os casos. Por outro lado o ES obedece aos quatro axiomas, considerado assim uma medida coerente. O modelo de ES foi avaliado segundo a abordagem Paramétrica Normal. Neste trabalho também se verificou através dos backtests, o quanto a propriedade de coerência de uma medida de risco melhora sua precisão.
Resumo:
O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.
Resumo:
O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
O presente estudo busca analisar a adoção de técnicas de imunização de carteiras para a gestão dos hedges cambiais no ambiente corporativo de uma Trading Company, utilizando de forma pioneira a análise de componentes principais aplicada à curva cambial como uma alternativa aos modelos usualmente utilizados de hedge por exposição gerada (back-to-back) e duration hedge que mostram algumas deficiências em sua gestão. Para exemplificar a efetividade da estratégia de imunização foi gerada aleatoriamente uma carteira de exposição cambial com data base de 02/01/2013 composta por 200 transações com valores entre US$5 milhões e -US$10 milhões, para vencimentos também aleatórios entre 03/06/2013 e 01/12/2014 com vencimento no primeiro dia útil de cada mês. Os resultados da Análise de Componente Principais mostraram que para os períodos analisados de 1, 2 e 3 anos, os três primeiros componentes explicam respectivamente 97.17%, 97.90% e 97.53% da variabilidade da curva cambial. No que diz respeito à imunização da carteira, a estratégia que utiliza a metodologia de componentes principais mostrou-se altamente efetiva, quando comparadas à estratégia back-to-back, de forma a permitir a sua aplicabilidade no ambiente corporativo. A estratégia de hedge utilizando-se da Análise de Componentes Principais para 1, 2 e 3 anos e pelo Duration Hedge apresentaram uma efetividade de, respectivamente, 101.3%, 99.47%, 97.64% e 99.24% para o período analisado e uma amplitude na efetividade diária de 8.62%, 7.79%, 8.45% e 19.21% o que indica uma superioridade da estratégia em relação ao Duration Hedge. Os resultados obtidos nesse trabalho são de grande relevância para a gestão de risco corporativo no mercado local.
Resumo:
Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.
Resumo:
Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.
Resumo:
O presente trabalho analisou em que medida a estrutura de mercado da indústria bancária brasileira – em níveis de concentração e competição – afeta o apetite ao risco de seus agentes. Para tanto, o estudo examinou a relação entre indicadores de concentração (C3 e HHI), competição (Estatística-H) e de risco (NPL, Z-score) para o período entre 2001 e 2013. A relação entre non-performing loans (NPL), concentração e competição foi empiricamente testada através de modelos de dados em painel. Os resultados indicam que a concentração bancária tem impacto significativo no NPL, sugerindo que sistemas mais concentrados são mais frágeis. Por outro lado, os resultados para competição e NPL indicam que em ambientes mais competitivos podem gerar sistemas financeiros menos instáveis.
Resumo:
Este trabalho apresenta as principais aplicações de técnicas de gestão de riscos ao estudo de interrupções em cadeias de fornecimento, tendo como motivação o caso do fornecimento de energia elétrica, assunto de extrema relevância para o Brasil. Neste sentido, o cálculo do “custo do déficit” ou perda de produção dada uma falha no fornecimento de energia elétrica (parâmetro utilizado em todo o planejamento do setor elétrico brasileiro), foi escolhido como fator relevante a ser analisado. As principais metodologias existentes para a apuração desse parâmetro são apresentadas fazendo uma comparação com aquela atualmente em uso no Brasil. Adicionalmente, apresentamos uma proposta de implementação para as metodologias alternativas, utilizadas no exterior, e baseadas no conceito de VOLL (“Value of Lost Load”) - medida do valor da escassez de energia para empresas ou consumidores individuais e fundamental para o desenho de programas de gerenciamento de demanda.
Resumo:
A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.
Resumo:
Seguindo a tendência mundial de um melhor gerenciamento de riscos, o regulador do mercado de seguros brasileiro, após a implementação dos demais riscos, está em fase avançada de desenvolvimento de seu modelo para aferir o risco de mercado das seguradoras. Uma vez que as discussões cessem, as empresas serão forçadas a usar um modelo que, hoje, apresenta muitas falhas, gerando uma demanda de capital adicional de seus acionistas que pode levar algumas delas ao estado de insolvência. O principal objetivo deste estudo é analisar a adequação do modelo e subsidiar a discussão a fim de aperfeiçoar o modelo final, com análises comparativas com outros modelos no país e no mundo, estudo de cenários e visões do mercado. De modo geral, as análises feitas revelam problemas sérios no modelo, como necessidade de aporte de capital em empresas extremamente lucrativas e insuficiência de garantia de segurança pelo uso puro dos fatores de choque em detrimento a uma análise estocástica. Finalmente, são sugeridas algumas soluções para minimizar o efeito da inadequação do modelo e ainda algumas sugestões para melhoria do mesmo, de forma que os acionistas não sejam prejudicados, o regulador consiga administrar adequadamente os riscos e a sociedade seja beneficiada pela solidez das companhias em quem confiou seus riscos.
Resumo:
Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
O presente trabalho busca ir além da decisão, capital próprio ou terceiro, e verificar a decisão de qual tipo de recurso terceiro angariar, portanto, analisa a composição do endividamento da empresa com relação à fonte de financiamento: recursos privados ou públicos. Logo, foram construídos modelos econométricos com o intuito de investigar quais características, por parte da empresa, são relevantes na escolha de qual fonte recorrer para financiar suas atividades. Foram utilizados dados em painel de empresas brasileiras não pertencentes ao setor de Finanças e Seguros, cujas ações são negociadas na Bolsa de Valores de São Paulo (BOVESPA). Neste trabalho foram investigadas variáveis das empresas referentes à qualidade e credibilidade das informações contábeis, total de ativos imobilizados, lucratividade, alavancagem, setor de atuação, tamanho da empresa e internacionalização. Os resultados indicaram que fatores como total de ativos imobilizados, alavancagem, lucratividade e alguns setores de atuação são relevantes para determinar a estratégia de financiamento da firma. A variável nível de disclosure, responsável por diferenciar a empresa que possui qualidade da informação contábil superior às demais, não apresentou ser significante, embora, com o sinal esperado. Portanto, os resultados sugerem que as empresas estudadas tendem a seguir a teoria da liquidação ineficiente quando tomam as suas decisões de financiamento.