220 resultados para Prêmio de Risco
Resumo:
Com a implementação do Acordo de Basiléia II no Brasil, os grandes conglomerados bancários poderão utilizar o chamado modelo IRB (Internal Ratings Based) para cômputo da parcela de risco de crédito da exigência de capital. O objetivo desta dissertação é mensurar a diferença entre o capital mínimo exigido (e, conseqüentemente, do Índice de Basiléia) calculado pela abordagem IRB em relação à regulamentação atual. Para isso, foram estimadas probabilidades de inadimplência (PD) utilizando matrizes de transição construídas a partir dos dados da Central de Risco de Crédito (SCR) do Banco Central do Brasil. Os resultados indicam aumento da exigência de capital, ao contrário do ocorrido nos países do G-10.
Resumo:
O objetivo deste trabalho é investigar as motivações e a dinâmica no uso de derivativos de moedas por parte de empresas não-financeiras brasileiras, em contratos de balcão, a partir de um banco de dados único, que contém operações efetivamente contratadas por estas empresas junto a um grande banco internacional de 2003 a 2008. Embora pesquisas em outros países apontem para a influência de um componente especulativo (resultado de uma tentativa de previsão de mercado) nas decisões dos gestores, o efetivo impacto disto nas decisões da empresa ainda é pouco conhecido, bem como suas implicações para a gestão financeira de riscos e governança corporativa. Os resultados do presente estudo revelam que existem fortes indícios de que as decisões de tomada e desmonte de posições em derivativos sejam bastante influenciadas por uma visão especulativa. Mais ainda, tais situações são difíceis de serem identificadas a priori por confundirem-se com as operações destinadas à redução de risco da companhia.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
A fim de auxiliar os investidores na compreensão da exposição a risco de seu portfólio, este texto estuda os impactos das mudanças não antecipadas dos fatores econômicos em ações com características específicas (alto fluxo de dividendos, alto crescimento esperado, entre outras). Por exemplo, verifica se uma ação com alto crescimento esperado apresenta maior elasticidade a um choque inflacionário do que uma ação pagadora de dividendos. Esse estudo por meio da metodologia do APT com estimação em três etapas desenvolvida por McElroy e Burmeister (1998) consegue mostrar, para a amostra estudada de ações do Ibovespa, como: (i) as ações que tem maior parcela do seu valor no futuro são as que possuem maior exposição ao risco de inflação e ao risco de prazo; (ii) as ações de empresas grandes (Large Caps) são as mais sensíveis ao risco de mercado; (iii) o fator expectacional é relevante na análise do desempenho das ações; (iii) há maior sensibilidade das ações de crescimento à inflação do que ao ciclo econômico, (iv) o risco de crédito e o de mercado são os fatores que melhor explicam o desempenho dessa amostra, dentre os estudados. Apesar de contra-intuitivo, os fatores de risco de ciclo econômico e termo quase não ajudam a explicar o retorno de muitos dos portfólios. Dessa forma, o texto auxilia o investidor a entender fatores que influenciam o desempenho de uma ação, além do prêmio ou desconto em relação ao valor presente dos fluxos de caixa.
Resumo:
O objetivo da pesquisa consiste em identificar os fatores determinantes à utilização de derivativos por empresas não financeiras listadas na Bolsa de Valores de São Paulo (Bovespa). A principal contribuição aos estudos já publicados sobre esse tema consiste na avaliação, se estrutura de propriedade e/ou motivos gerenciais influenciam as estratégias de redução do risco da firma. Foram coletados dados de 125 empresas de capital aberto referente ao período 2006, sendo que destas empresas, 82 apresentam níveis diferenciados de boas práticas de governança corporativa (Nível 1, Nível 2 ou Novo Mercado). Através do modelo de variáveis binárias Logit, identificaram-se as seguintes evidências: grau de endividamento, valor de mercado da companhia e concentração de propriedade estão positivamente relacionadas com a utilização de derivativos. Já a adoção de políticas financeiras alternativas, mensurada pelo índice de liquidez seca, apresenta relação negativa. Características como “existência de programas de opções de ações” e “idade”, “tempo de empresa” e “prazo de mandato do diretor financeiro” não se mostraram estatisticamente significantes.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.
Resumo:
O presente estudo busca pesquisar, identificar, descrever e analisar os fatores que obstaculizam e dificultam a transferência de liderança e poder em processos de sucessão por que passam empresas familiares, os quais inibem o sucesso em processos aparentemente simples, porém de profunda complexidade, e os quais não raro podem levar a instituição-empresa à condição de descontinuidade e a instituição-família à desintegração. Este trabalho está focado em três importantes pilares que são: o paradigma da empresa e da família e o conflito daí resultante; a transferência de liderança e de poder e seu impacto causado no fundador-sucedido, no sucessor e no grupo que vive no interior das organizações e, por último, o grupo como possível fator que poderá obstaculizar o processo sucessório, dado sua característica de formação e maneira como se conduz. O trabalho não tem por objetivo encontrar respostas definitivas tampouco produzir soluções para qualquer dos pilares que pretende pesquisar, descrever e analisar através de pesquisa bibliográfica. Tampouco sugerir modelos de sucessão e metodologia de como proceder em tais processos. Tem, outrossim, os seguintes objetivos: (i) contribuir com aqueles que nele acessarem, sejam pesquisadores, curiosos da temática, sucedidos e sucessores a melhor compreender o processo sucessório, (ii) pesquisar as características do paradigma da empresa e da família, explicitar suas diferenças e os conflitos que decorrem do choque entre os dois, (iii) pesquisar e analisar como a racionalidade e funcionalidade, uma característica do paradigma da empresa, convive, ainda que de maneira conflitante, em um mesmo espaço com o subjetivo e o afetivo, uma característica do paradigma da família, (iiii) entender as relações do líder e fundador com sua obra, e como a transferência do poder e liderança podem provocar reações que inibem a evolução do processo sucessório, e, por último, (iiiii) como os grupos que vivem no interior das organizações podem ser obstáculos ao processo sucessório e ao sucessor e como se dá a legitimação do sucessor por estes grupos. No Brasil, apenas 30% das empresas familiares chegam à segunda geração e 5% à terceira geração. Esta pesquisa tem a expectativa de ser meio para a contínua instrumentalização dos atores envolvidos, agregar conhecimento e contribuir para diminuir os índices de mortalidade destas empresas, aumentando por decorrência o número daquelas que finaliza satisfatoriamente o processo de sucessão, desta forma gerando condições para a perenização das organizações envolvidas em tais processos
Resumo:
Este trabalho estima, usando o método generalizado dos momentos e dados brasileiros, os parâmetros estruturais do modelo CCAPM (consumption capital asset pricing model) a partir de três classes de funções utilidade distintas: função utilidade potência (CES/CRRA), utilidade com hábito externo, e aversão ao desapontamento (Kreps-Porteus). Estes parâmetros estruturais estão associados à aversão ao risco, à elasticidade de substituição intertemporal no consumo e a taxa de desconto intertemporal da utilidade futura, o foco central desse artigo. Os resultados aqui obtidos são analisados e comparados com resultados anteriores para dados brasileiros e americanos.
Resumo:
The Prospect Theory is one of the basis of Behavioral Finance and models the investor behavior in a different way than von Neumann and Morgenstern Utility Theory. Behavioral characteristics are evaluated for different control groups, validating the violation of Utility Theory Axioms. Naïve Diversification is also verified, utilizing the 1/n heuristic strategy for investment funds allocations. This strategy causes different fixed and equity allocations, compared to the desirable exposure, given the exposure of the subsample that answered a non constrained allocation question. When compared to non specialists, specialists in finance are less risk averse and allocate more of their wealth on equity.
Resumo:
In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.
Resumo:
O presente trabalho tem como objetivo apresentar por meio de um exemplo prático a quantificação de Risco Operacional, utilizando um Modelo de Distribuição de Perdas Agregadas - LDA, Loss Distribution Approach - aplicado a riscos em instituições não financeiras. A idéia é mostrar como um método simples pode ser aplicado para realizar a gestão do risco operacional com foco em redução de perdas potenciais. O estudo faz uma breve análise sobre algumas técnicas que viabilizam a utilização de dados históricos e de julgamento de especialistas, e em seguida aprofunda-se em um método em que os especialistas inferem diretamente nos parâmetros das distribuições de freqüência e de severidade.