7 resultados para Natural Catastrophe, Property Insurance, Loss Distribution, Truncated Data, Ruin Probability

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos tempos, mensurar o Risco Operacional (RO) tornou-se o grande desafio para instituições financeiras no mundo todo, principalmente com a implementação das regras de alocação de capital regulatório do Novo Acordo de Capital da Basiléia (NACB). No Brasil, ao final de 2004, o Banco Central (BACEN) estabeleceu um cronograma de metas e disponibilizou uma equipe responsável pela adaptação e implementação dessas regras no sistema financeiro nacional. A Federação de Bancos Brasileiros (FEBRABAN) também divulgou recente pesquisa de gestão de RO envolvendo vários bancos. Todo esse processo trouxe uma vasta e crescente pesquisa e atividades voltadas para a modelagem de RO no Brasil. Em nosso trabalho, medimos o impacto geral nos banco brasileiros, motivado pelas novas regras de alocação de capital de RO envolvendo os modelos mais básicos do NACB. Também introduzimos um modelo avançado de mensuração de risco, chamado Loss Data Distribution (LDA), que alguns especialistas, provenientes do Risco de Mercado, convencionaram chamar de Value-at-Risk Operacional (VaR Operacional.). Ao final desse trabalho apresentamos um caso prático baseado na implementação do LDA ou VaR

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente pesquisa teve corno objetivo a análise das demonstrações contábeis de uma cooperativa de produção, após a aplicação dos métodos contábeis que reconhecem os efeitos da inflação sobre as mesmas, procurando definir qual a influência da flutuação de preços na distribuição das Sobras, após a aplicação dos referidos métodos . Na revisão da literatura foram abordados os métodos que reconhecem os efeitos inflacionários sobre as demonstrações contábeis, um breve histórico sobre a legislação que abrange a correçao monetária no Brasil e uma introdução à filosofia, princípios e características das Sociedades Cooperativas (cap.II). O presente estudo foi desenvolvido através do método de Estudo de Caso, em razão da carência de verificações empíricas na área do cooperativismo, e da necessidade de discriminação do método, coleta e tratamento dos dados (cap.III). A seguir, apresenta os resultados alcançados após a aplicação dos métodos do Custo Histórico Corrigido, do Custo Corrente Corrigido Parcial, com a aplicação da variação. mensal do IGP em ambos os métodos, além do método adotado pela legislação brasileira, sendo que este último efetuado com a aplicação do índice oficial no período em observação, isto é, a Obrigação Reajustável do Tesouro Nacional (ORTN) e a variação mensal do índice Geral de Preços (IGP) (cap.IV). Os resultados alcançados permitiram a análise dos mesmos (cap.V), chegando-se as conclusões e, finalmente sugeriu-se uma nova pesquisa na area do cooperativismo (cap. VI).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo apresentar por meio de um exemplo prático a quantificação de Risco Operacional, utilizando um Modelo de Distribuição de Perdas Agregadas - LDA, Loss Distribution Approach - aplicado a riscos em instituições não financeiras. A idéia é mostrar como um método simples pode ser aplicado para realizar a gestão do risco operacional com foco em redução de perdas potenciais. O estudo faz uma breve análise sobre algumas técnicas que viabilizam a utilização de dados históricos e de julgamento de especialistas, e em seguida aprofunda-se em um método em que os especialistas inferem diretamente nos parâmetros das distribuições de freqüência e de severidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As perdas trabalhistas nas Instituições Financeiras representam um valor considerável que devem ser consideradas no modelo de capital regulatório para risco operacional, segundo Basileia. A presente dissertação demonstra uma forma de mensurar o risco às quais as Instituições Financeiras estão expostas nesse tipo de perdas. Diversos tipos de distribuições são analisados conforme sua aderência tanto na frequência como na severidade das perdas. Para os valores de frequência, foi obtida uma amostra de dados real, enquanto para a severidade foram utilizados valores obtidos de relatórios de instituto de pesquisa que serviram de insumo para os cálculos de ações trabalhistas conforme legislação brasileira vigente na CLT (Consolidação das Leis do Trabalho).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Based on three versions of a small macroeconomic model for Brazil, this paper presents empirical evidence on the effects of parameter uncertainty on monetary policy rules and on the robustness of optimal and simple rules over different model specifications. By comparing the optimal policy rule under parameter uncertainty with the rule calculated under purely additive uncertainty, we find that parameter uncertainty should make policymakers react less aggressively to the economy's state variables, as suggested by Brainard's "conservatism principIe", although this effect seems to be relatively small. We then informally investigate each rule's robustness by analyzing the performance of policy rules derived from each model under each one of the alternative models. We find that optimal rules derived from each model perform very poorly under alternative models, whereas a simple Taylor rule is relatively robusto We also fmd that even within a specific model, the Taylor rule may perform better than the optimal rule under particularly unfavorable realizations from the policymaker' s loss distribution function.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The goal of this paper is to show the possibility of a non-monotone relation between coverage ans risk which has been considered in the literature of insurance models since the work of Rothschild and Stiglitz (1976). We present an insurance model where the insured agents have heterogeneity in risk aversion and in lenience (a prevention cost parameter). Risk aversion is described by a continuous parameter which is correlated with lenience and for the sake of simplicity, we assume perfect correlation. In the case of positive correlation, the more risk averse agent has higher cosr of prevention leading to a higher demand for coverage. Equivalently, the single crossing property (SCP) is valid and iplies a positive correlation between overage and risk in equilibrium. On the other hand, if the correlation between risk aversion and lenience is negative, not only may the SCP be broken, but also the monotonocity of contracts, i.e., the prediction that high (low) risk averse types choose full (partial) insurance. In both cases riskiness is monotonic in risk aversion, but in the last case there are some coverage levels associated with two different risks (low and high), which implies that the ex-ante (with respect to the risk aversion distribution) correlation between coverage and riskiness may have every sign (even though the ex-post correlation is always positive). Moreover, using another instrument (a proxy for riskiness), we give a testable implication to desentangle single crossing ans non single croosing under an ex-post zero correlation result: the monotonicity of coverage as a function os riskiness. Since by controlling for risk aversion (no asymmetric information), coverage is monotone function of riskiness, this also fives a test for asymmetric information. Finally, we relate this theoretical results to empirical tests in the recent literature, specially the Dionne, Gouruéroux and Vanasse (2001) work. In particular, they found an empirical evidence that seems to be compatible with asymmetric information and non single crossing in our framework. More generally, we build a hidden information model showing how omitted variables (asymmetric information) can bias the sign of the correlation of equilibrium variables conditioning on all observable variables. We show that this may be the case when the omitted variables have a non-monotonic relation with the observable ones. Moreover, because this non-dimensional does not capture this deature. Hence, our main results is to point out the importance of the SPC in testing predictions of the hidden information models.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper develops a framework to test whether discrete-valued irregularly-spaced financial transactions data follow a subordinated Markov process. For that purpose, we consider a specific optional sampling in which a continuous-time Markov process is observed only when it crosses some discrete level. This framework is convenient for it accommodates not only the irregular spacing of transactions data, but also price discreteness. Further, it turns out that, under such an observation rule, the current price duration is independent of previous price durations given the current price realization. A simple nonparametric test then follows by examining whether this conditional independence property holds. Finally, we investigate whether or not bid-ask spreads follow Markov processes using transactions data from the New York Stock Exchange. The motivation lies on the fact that asymmetric information models of market microstructures predict that the Markov property does not hold for the bid-ask spread. The results are mixed in the sense that the Markov assumption is rejected for three out of the five stocks we have analyzed.