1000 resultados para modelos de risco


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia e Gestão Industrial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata da avaliação do desempenho de modelos alternativos de precificação de ações no mercado de capitais brasileiro. Testamos modelos de risco uni e multifatorial e um modelo comportamental baseado em características.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Discute-se a base de construção do conceito de risco, a partir da descrição do modelo de inferência causal de Rubin, desenvolvido no âmbito da estatística aplicada, e incorporado por uma vertente da epidemiologia. A apresentação das premissas da inferência causal torna visível as passagens lógicas assumidas na construção do conceito de risco, permitindo entendê-lo "por dentro". Esta vertente tenta demonstrar que a estatística é capaz de inferir causalidade ao invés de simplesmente evidenciar associações estatísticas, estimando em um modelo o que é definido como o efeito de uma causa. A partir desta distinção entre procedimentos de inferência causal e de associação, busca-se distinguir também o que seria a dimensão epidemiológica dos conceitos, em contrapartida a uma dimensão simplesmente estatística. Nesse contexto, a abordagem dos conceitos de interação e confusão toma-se mais complexa. Busca-se apontar as reduções que se operam nas passagens da construção metodológica do risco. Tanto no contexto de inferências individuais, quanto populacionais, esta construção metodológica impõe limites que precisam ser considerados nas aplicações teóricas e práticas da epidemiologia.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial de obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A despeito de melhora expressiva no fluxo escolar durante a maior parte da década de 1990, especialmente entre 1992 e 1998, a repetência tem-se mantido constante e em valor elevado desde 1998. Dados provenientes dos dois últimos censos das escolas indicam leve tendência de aumento da repetência. Usamos dados do Sistema Nacional de Avaliação da Educação Básica - Saeb/2001 -, para investigar a relação entre origem social e risco de repetência de alunos que cursavam a 8ª série do ensino fundamental em escolas públicas de capitais brasileiras. O resultado da estimação de modelos de risco para repetência mostrou que diversas variáveis de origem social continuam associadas ao aumento do risco da repetência, no sentido usualmente descrito pela literatura educacional. Mostrou também que embora capital econômico acima da média atue como fator de proteção para a repetência, esse resultado não prevalece para todos os grupos raciais, pois alto capital econômico mostrou-se fator de risco para os alunos que se autodeclararam pretos. Conseqüências dos resultados para políticas públicas são discutidas.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A giberela ou fusariose da espiga é, atualmente, uma das mais importantes doenças da cultura do trigo (Triticum aestivum). Epidemias severas têm sido observadas nos últimos anos em diversas regiões do mundo, promovendo perdas na produtividade e na qualidade dos grãos. No Brasil, a giberela alcançou o status de principal doença nas regiões tritícolas, principalmente no Sul do Brasil. A sua natureza esporádica está associada à dependência climática, sendo as mais severas epidemias observadas em anos com maior freqüência de chuvas, durante a fase de florescimento e enchimento de grãos. Poucas são as cultivares com resistência genética aceitável e essas normalmente falham em anos muito favoráveis a epidemias. Medidas de controle com fungicidas têm sido preconizadas, entretanto, a dificuldade reside no momento e na tecnologia de aplicação, para se obter resultados satisfatórios. O melhor entendimento dos fatores que influenciam a dinâmica da doença pode auxiliar no manejo da cultura visando a minimizar os riscos de epidemias. Aspectos como aerobiologia e tipo de inóculo, distribuição espacial e gradiente espacial da doença podem contribuir no conhecimento da associação e a importância de fontes de inóculo local ou distante ao campo. Recentemente, uma grande atenção tem sido dada ao desenvolvimento de modelos de previsão ou de risco de giberela. Tais modelos podem auxiliar na tomada de decisão no acionamento de medidas de controle bem como alertar níveis epidêmicos da doença em uma determinada região, ou mesmo quanto à alta contaminação do trigo com micotoxinas de Fusarium spp.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

As teorias sobre risco sistemático iniciadas em 1932 com Knight sempre buscaram determinar variáveis que pudessem explicar e determinar o nível de risco sistemático de um sistema financeiro. Neste sentido, este estudo propôs-se a investigar as variáveis que possam determinar o nível de risco sistemático de um país, utilizando um modelo de mercado para estimação de betas e regressões com dados em painel sobre uma base de dados de janeiro de 1997 a setembro de 2008 para 40 países. Utilizou-se como variáveis, o PIB, inflação, câmbio, taxa real de juros e concentração de mercado. Verificou-se que o modelo apresenta indícios que as variáveis utilizadas podem ser consideradas como determinantes do risco sistemático e ainda, que o nível de concentração de um mercado acionário pode determinar o nível de risco sistemático de um país.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Considering the relevance of researches concerning credit risk, model diversity and the existent indicators, this thesis aimed at verifying if the Fleuriet Model contributes in discriminating Brazilian open capital companies in the analysis of credit concession. We specifically intended to i) identify the economic-financial indicators used in credit risk models; ii) identify which economic-financial indicators best discriminate companies in the analysis of credit concession; iii) assess which techniques used (discriminant analysis, logistic regression and neural networks) present the best accuracy to predict company bankruptcy. To do this, the theoretical background approached the concepts of financial analysis, which introduced themes relative to the company evaluation process; considerations on credit, risk and analysis; Fleuriet Model and its indicators, and, finally, presented the techniques for credit analysis based on discriminant analysis, logistic regression and artificial neural networks. Methodologically, the research was defined as quantitative, regarding its nature, and explanatory, regarding its type. It was developed using data derived from bibliographic and document analysis. The financial demonstrations were collected by means of the Economática ® and the BM$FBOVESPA website. The sample was comprised of 121 companies, being those 70 solvents and 51 insolvents from various sectors. In the analyses, we used 22 indicators of the Traditional Model and 13 of the Fleuriet Model, totalizing 35 indicators. The economic-financial indicators which were a part of, at least, one of the three final models were: X1 (Working Capital over Assets), X3 (NCG over Assets), X4 (NCG over Net Revenue), X8 (Type of Financial Structure), X9 (Net Thermometer), X16 (Net Equity divided by the total demandable), X17 (Asset Turnover), X20 (Net Equity Profitability), X25 (Net Margin), X28 (Debt Composition) and X31 (Net Equity over Asset). The final models presented setting values of: 90.9% (discriminant analysis); 90.9% (logistic regression) and 97.8% (neural networks). The modeling in neural networks presented higher accuracy, which was confirmed by the ROC curve. In conclusion, the indicators of the Fleuriet Model presented relevant results for the research of credit risk, especially if modeled by neural networks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho de projecto apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

FUNDAMENTO: O papel dos testes de reatividade plaquetária (RP) na predição de eventos em longo prazo em pacientes latino-americanos tratados com stents farmacológicos (SF) não foi estabelecido. OBJETIVOS: Analisar o papel dos testes de RP na predição de eventos após a implantação de SF. MÉTODOS: De maio de 2006 a janeiro de 2008, foram incluídos 209 pacientes brasileiros que se submeteram a tratamento eletivo com SF. A RP foi avaliada 12 a 18 horas após o procedimento, por agregometria de transmitância de luz com 5µM de ADP. Os pacientes foram acompanhados prospectivamente por até 4,8 anos. Dezessete (8%) dos indivíduos foram perdidos durante o acompanhamento e a coorte final foi composta de 192 pacientes. A curva ROC foi utilizada para determinar o melhor ponto de corte de 5µM de ADP para prever eventos. O endpoint primário foi uma combinação de morte cardiovascular, infarto agudo do miocárdio, trombose definitiva de stent, e revascularização de artéria alvo.Modelos de risco proporcional de Cox foram utilizados para determinar as variáveis independentemente associadas com o tempo até o primeiro evento. RESULTADOS: O melhor ponto de corte de 5µM de ADP foi de 33%. Cento e sete (55,7%) pacientes apresentaram 5mM de ADP > 33%. A taxa de sobrevivência livre de eventos em 1.800 dias foi de 55% contra 70% para os indivíduos com ADP5 acima e abaixo desse ponto de corte, respectivamente (p = 0,001). Preditores de tempo independentes para o primeiro evento foram tabagismo atual (HR 3,49, IC95%: 1,76-6,9, p = 0,0003), ADP 5mM > 33% (HR 1,95, IC95%: 1,09-3,51, p = 0,025) e idade (HR 1,03 IC 95%: 1,0-1,06, p = 0,041). CONCLUSÕES: Neste estudo, 55,7% dos pacientes apresentaram alta reatividade plaquetária durante tratamento. 5µM de ADP > 33% foi um preditor independente de eventos em longo prazo.