364 resultados para Risco (Economia) - Avaliação - Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper characterizes episodes of real appreciations and depreciations for a sample of 85 countries, approximately from 1960 to 1998. First, the equilibrium real exchange rate series are constructed for each country using Goldfajn and Valdes (1999) methodology (cointegration with fundamentals). Then, departures from equilibrium real exchange rate (misalignments) are obtained, and a Markov Switching Model is used to characterize the misalignments series as stochastic autoregressive processes governed by two states representing di¤erent means. Three are the main results we …nd: …rst, no evidence of di¤erent regimes for misalignment is found in some countries, second, some countries present one regime of no misalignment (tranquility) and the other regime with misalignment (crisis), and, third, for those countries with two misalignment regimes, the lower mean misalignment regime (appreciated) have higher persistence that the higher mean one (depreciated).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pesquisas que integram as teorias de estratégia e opções reais sugerem que firmas podem ser vistas sob a perspectiva de um portfolio de oportunidades a serem capturadas no futuro, de forma que recursos, capacitações e processos organizacionais devem ser combinados visando a sua otimização. Firmas diferem entre si quanto a esta capacidade de otimização e esta heterogeneidade, adicionada aos efeitos de outros fatores, estão refletidos na variabilidade e no comportamento dinâmico do valor das opções de crescimento (vgo), tema central desta dissertação. A análise de decomposição de variâncias confirma um efeito firma preponderante, consistente com resultados obtidos em pesquisas prévias, e os resultados gerados pelos modelos de curvas latentes sob o enfoque de equações estruturais levam à conclusão de que tamanho importa, tem impacto estatisticamente significante sobre o intercepto e explica as diferenças cross section entre firmas do valor dos vgo’s observados no início do período de análise, enquanto que os efeitos do dinamismo da indústria são positivos e significantes e variam com o tempo de forma não linear. Entretanto, remanescem parcelas relevantes de variâncias não explicadas nos três parâmetros latentes que determinam as trajetórias de vgo ao longo do tempo, provavelmente devido aos impactos de fatores não observáveis e idiossincráticos às organizações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O primeiro capítulo desta tese tem por objetivo classificar as várias abordagens sobre produtividade, de tal sorte que se tenha uma idéia mais detalhada das metodologias que embasam as diferentes análises empíricas. O segundo capítulo trata de identificar, dentre as várias abordagens disponíveis, aquelas de uso mais freqüente na mensuração da produtividade agregada e comparar resultados, vantagens e desvantagens metodológicas, procurando evitar comparações inadequadas entre metodologias muito díspares. Uma conclusão a que se chega nesse ponto do trabalho é a de que os métodos que pressupõem eficiência técnica e alocativa não dão conta de esclarecer as razões econômicas por trás das diferenças de produtividade entre nações. Os métodos que relaxam a hipótese de eficiência, chamados de métodos de fronteiras de produção, têm o mérito de separar os efeitos do progresso técnico dos ganhos de eficiência técnica, estes últimos freqüentemente interpretados como difusão tecnológica e aprendizado – isto é, como um efeito de alcance. Em razão disso, parecem ser adequados para discutir várias das questões levantadas na literatura de crescimento econômico. No capítulo três, apresenta-se uma alternativa pouco explorada na literatura de crescimento econômico para mensuração da produtividade usando fronteiras estocásticas de produção. Essa abordagem permite uma posterior decomposição das variações da produtividade em partes que apresentam interpretação econômica intuitiva. O capítulo quatro usa as estimativas obtidas no capítulo anterior para efetuar a decomposição da taxa de crescimento da produtividade da forma mais detalhada que o estado das artes parece permitir. Isso é feito para um subconjunto de países da amostra (por questões de disponibilidade de dados) que ainda assim mantém um razoável grau de heterogeneidade. Os resultados permitem, então, que se avalie as contribuições da acumulação de fatores, da produtividade (como um todo) e de seus componentes no comportamento da taxa de crescimento do produto por trabalhador. O trabalho desenvolvido nos capítulos anteriores permite, por fim, que se trace algumas conclusões. De forma geral, a mais importante conclusão do trabalho é a de que a eficiência alocativa importa, e muito, para o estudo comparativo do desempenho econômico das nações. As diferenças de padrão de vida medido pelo produto por trabalhador entre grupos de países (desenvolvidos e em desenvolvimento) guardam grande relação com as diferenças de produtividade nesses países. O progresso técnico, juntamente com a eficiência técnica são os principais responsáveis pela variação dessa produtividade. Nos países em desenvolvimento o efeito da eficiência alocativa é ainda mais importante e contribui fortemente para redução da produtividade. A eficiência alocativa é ainda o componente da produtividade de maior peso na explicação das diferenças entre países ricos e pobres quanto à evolução do produto por trabalhador. Os resultados revelam ainda um efeito de alcance da fronteira (variações na eficiência técnica) que ocorre tanto para países em desenvolvimento quanto para os desenvolvidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Crescentemente, a importância da acurada mensuração de risco por parte de empresas não financeiras tem despertado o interesse e se tornado relevante no dia a dia operacional das mesmas. Algo até então muito comum e restrito ao âmbito dos bancos, fundos de investimento e instituições financeiras que utilizam o VaR como um dos principais componentes dos seus sistemas de risk management. Não há consenso, entretanto, quanto à melhor métrica ou definição para mensuração de risco em empresas. O objetivo deste trabalho é analisar risco de mercado em corporações fazendo uma revisão teórica dos principais conceitos apresentados na literatura sobre o assunto, e propor taxonomia mais adequada para as corporações, aproximando o universo das instituições financeiras ao das não financeiras. Um exemplo prático apresentado na análise da Aracruz Celulose busca demonstrar o grau de complexidade nos cálculos, que aliam Asset Pricing, Risco e Finanças Corporativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We investigate the eff ect of aggregate uncertainty shocks on real variables. More speci fically, we introduce a shock in the volatility of productivity in an RBC model with long-run volatility risk and preferences that exhibit generalised disappointment aversion. We find that, when combined with a negative productivity shock, a volatility shock leads to further decline in real variables, such as output, consumption, hours worked and investment. For instance, out of the 2% decrease in output as a result of both shocks, we attribute 0.25% to the e ffect of an increase in volatility. We also fi nd that this e ffect is the same as the one obtained in a model with Epstein-Zin- Weil preferences, but higher than that of a model with expected utility. Moreover, GDA preferences yield superior asset pricing results, when compared to both Epstein-Zin-Weil preferences and expected utility.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação estuda a propagação de crises sobre o sistema financeiro. Mais especi- ficamente, busca-se desenvolver modelos que permitam simular como um determinado choque econômico atinge determinados agentes do sistema financeiro e apartir dele se propagam, transformando-se em um problema sistêmico. A dissertação é dividida em dois capítulos,além da introdução. O primeiro capítulo desenvolve um modelo de propa- gação de crises em fundos de investimento baseado em ciência das redes.Combinando dois modelos de propagação em redes financeiras, um simulando a propagação de perdas em redes bipartites de ativos e agentes financeiros e o outro simulando a propagação de perdas em uma rede de investimentos diretos em quotas de outros agentes, desenvolve-se um algoritmo para simular a propagação de perdas através de ambos os mecanismos e utiliza-se este algoritmo para simular uma crise no mercado brasileiro de fundos de investimento. No capítulo 2,desenvolve-se um modelo de simulação baseado em agentes, com agentes financeiros, para simular propagação de um choque que afeta o mercado de operações compromissadas.Criamos também um mercado artificial composto por bancos, hedge funds e fundos de curto prazo e simulamos a propagação de um choque de liquidez sobre um ativo de risco securitizando utilizado para colateralizar operações compromissadas dos bancos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisamos a previsibilidade dos retornos mensais de ativos no mercado brasileiro em um período de 10 anos desde o início do plano Real. Para analisarmos a variação cross-section dos retornos e explicarmos estes retornos em função de prêmios de risco variantes no tempo, condicionados a variáveis de estado macroeconômicas, utilizamos um novo modelo de apreçamento de ativos, combinando dois diferentes tipos de modelos econômicos, um modelo de finanças - condicional e multifatorial, e um modelo estritamente macroeconômico do tipo Vector Auto Regressive. Verificamos que o modelo com betas condicionais não explica adequadamente os retornos dos ativos, porém o modelo com os prêmios de risco (e não os betas) condicionais, produz resultados com interpretação econômica e estatisticamente satis fatórios

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Análise do comportamento dos principais índices de risco no mercado de ações de São Paulo no período de julho de 1984 a junho de 1990. Estudo das condições de diversificação presentes no mercado acionário paulista neste período. Teste do "Single Index Model" e dos principais modelos de avaliação de ações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata da avaliação do desempenho de modelos alternativos de precificação de ações no mercado de capitais brasileiro. Testamos modelos de risco uni e multifatorial e um modelo comportamental baseado em características.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho visa propor uma metodologia para Teste de estresse e, consequentemente, cálculo do colchão adicional de capital em risco de crédito, conforme exigência do Comitê de Supervisão Bancária. A metodologia consiste em utilizar informações macroeconômicas para determinar o comportamento da taxa de inadimplência. Dessa forma, podemos simular possíveis cenários econômicos e, com isso, a taxa de inadimplência associada a esse cenário. Para cada cenário econômico é obtida uma taxa. Cada taxa de inadimplência fornece uma curva de perdas. Simulando diversos cenários econômicos foi possível obter diversas curvas de perda e, com elas, a probabilidade de ocorrência da perda esperada e inesperada. A metodologia foi aplicada a uma carteira de crédito pessoal para pessoa física. Os resultados se mostraram bastantes eficientes para determinar a probabilidade de ocorrência do Capital Alocado. Como consequência do teste, dado um nível de confiança, foi possível determinar qual deveria ser o Capital Alocado para fazer frente às perdas acima da perda inesperada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.