1000 resultados para modelo de risco proporcional de Cox


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dado a importância da gestão de risco associada às operações de crédito, modelos estatísticos que avaliam o risco de inadimplência tornaram-se fundamentais na mensuração do risco associado a um cliente. Neste contexto, foi desenvolvido um modelo dinâmico de crédito utilizando variáveis características dos clientes, comportamentais e macroeconômicas através da Análise de Sobrevivência aplicada a dados discretos. Os resultados obtidos indicam que a inclusão de variáveis macroeconômicas provoca um efeito significativo, porém baixo, no ajuste do modelo. Entretanto, nota-se uma melhora expressiva no poder de previsão da taxa de inadimplência do portfólio quando aplicado a um conjunto de dados de validação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do presente trabalho foi, face ao grau de integração da economia brasileira, testar o poder explicativo do Modelo Goldman Sachs sobre os retornos esperados por um investidor estrangeiro no mercado nacional, ao longo do período 2004-2013. Em um primeiro momento, foi testado o grau de integração da economia brasileira para o período 2004-2013, buscando entender o contexto em que o Modelo Goldman Sachs foi empregado. Posteriormente, para o teste do modelo, calcularam-se os betas dos fatores de risco dos ativos analisados (risco de mercado e risco país) e procedeu-se à regressão com dados em painel dos retornos esperados sobre os betas desses ativos. Verificou-se que o risco país não se mostrou estatisticamente significante para a explicação dos retornos esperados, o que indica que é adicionado de maneira ad hoc pelos praticantes de mercado para o cálculo do custo de capital próprio de acordo com o Modelo Goldman Sachs. Assim, embora haja evidências de uma relação positiva e significante entre risco sistemático e retorno, os resultados para o risco país demonstram que o Modelo Goldman Sachs não se mostrou satisfatório para a explicação dos retornos esperados no mercado brasileiro ao longo dos últimos dez anos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudos passados demonstram que empreendedores, ao contrário do que se imaginava, não diferem de outros decisores quanto a sua propensão ao risco; porém, diferem quanto à percepção deste. Sabendo que a percepção varia entre os indivíduos, é objetivo deste estudo entender a relação entre os vieses cognitivos, a percepção de risco e a avaliação de oportunidades, partindo da premissa de que estes são, ao menos em parte, responsáveis por esta variação entre os indivíduos. O trabalho faz uma revisão da literatura da racionalidade limitada e do julgamento sob incerteza, abordando em especial a pesquisa em cognição empreendedora e percepção do risco, buscando estabelecer conexões teóricas entre elas. Em consonância com outros trabalhos da área, empiricamente o trabalho se desenvolveu através de pesquisa quantitativa utilizando surveys aplicados a micro e pequenos empreendedores, com respostas utilizadas em um modelo de equações estruturais que testou a influência dos vieses cognitivos na percepção de risco do empreendedor, influenciando sua avaliação de oportunidades. Os resultados, em dissonância com outros trabalhos acadêmicos sobre o tema, demonstram que apesar da hipótese de que a baixa percepção de risco do empreendedor está associada com uma avaliação mais positiva de oportunidades ser aceita, as demais, referentes a influência dos vieses cognitivos na avaliação de oportunidades e à mediação da percepção de risco na relação entre os vieses cognitivos e a avaliação de oportunidades, demonstraram-se em sua maioria não conclusivas, sendo uma delas rejeitada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta metodologia de mensuração e gestão de risco para empresas do ramo frigorífico. A ferramenta utilizada é conhecida como Earnings at Risk (EaR), e se adota uma visão top-down, que mostra a variação do resultado da empresa de acordo com variáveis explicativas de mercado e variáveis idiossincráticas. Através da eliminação de multicolinearidade entre essas variáveis com o uso da métrica de Análise de Componentes Principais (ACP), busca-se analisar como o novo EaR se comportaria frente ao enfoque usual, construído com um modelo de regressão linear múltipla. Variáveis dummy fazem parte do modelo de estimação do resultado futuro das empresas frigoríficas, relacionadas à ocorrência ou não de doenças que afetam o gado bovino, e à retirada de embargos econômicos de países importadores durante o período de análise. Ao fim do trabalho é verificado que as variáveis dummy não possuem relevância para a determinação de EaR, e que não se chega a conclusão de que o modelo de EaR com ACP se mostra melhor com menos variáveis, mantendo a mesma variância e significância estatística originais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este Trabalho se Dedica ao exercício empírico de gerar mais restrições ao modelo de apreçamento de ativos com séries temporais desenvolvido por Hansen e Singleton JPE 1983. As restrições vão, desde um simples aumento qualitativo nos ativos estudados até uma extensão teórica proposta a partir de um estimador consistente do fator estocástico de desconto. As estimativas encontradas para a aversão relativa ao risco do agente representativo estão dentro do esperado, na maioria dos casos, já que atingem valores já encontrados na literatura além do fato destes valores serem economicamente plausíveis. A extensão teórica proposta não atingiu resultados esperados, parecendo melhorar a estimação do sistema marginalmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho será apresentada a modelagem por regressão logística, com a finalidade de prever qual seria a inadimplência dos clientes que compõem o portfólio de uma grande instituição financeira do país. Sendo assim, será explorada a ideia de usar o conceito de provisionamento pura e simplesmente, através da estimação de uma probabilidade de default dado por um ou mais modelos estatísticos que serão construídos no decorrer do trabalho, conforme incentiva o comitê de Basileia. Um dos modelos será feito a partir de uma separação prévia de público através de clusters e a outra técnica a ser explorada será a criação de um modelo sem nenhuma separação. O objetivo será a comparação entre as duas métricas de classificação de risco e verificar os trade-off entre elas e os impactos de variáveis macroeconômicas nestes modelos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma forma interessante para uma companhia que pretende assumir uma posição comprada em suas próprias ações ou lançar futuramente um programa de recompra de ações, mas sem precisar dispor de caixa ou ter que contratar um empréstimo, ou então se protegendo de uma eventual alta no preço das ações, é através da contratação de um swap de ações. Neste swap, a companhia fica ativa na variação de sua própria ação enquanto paga uma taxa de juros pré ou pós-fixada. Contudo, este tipo de swap apresenta risco wrong-way, ou seja, existe uma dependência positiva entre a ação subjacente do swap e a probabilidade de default da companhia, o que precisa ser considerado por um banco ao precificar este tipo de swap. Neste trabalho propomos um modelo para incorporar a dependência entre probabilidades de default e a exposição à contraparte no cálculo do CVA para este tipo de swap. Utilizamos um processo de Cox para modelar o instante de ocorrência de default, dado que a intensidade estocástica de default segue um modelo do tipo CIR, e assumindo que o fator aleatório presente na ação subjacente e que o fator aleatório presente na intensidade de default são dados conjuntamente por uma distribuição normal padrão bivariada. Analisamos o impacto no CVA da incorporação do riscowrong-way para este tipo de swap com diferentes contrapartes, e para diferentes prazos de vencimento e níveis de correlação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Bali, Cakici e Chabi-Yo (2011) introduziram uma nova medida de risco, englobando as medidas de risco de Aumann e Serrano (2008) e Foster e Hart (2009). Trata-se de um modelo de medida de risco implícito de opções baseado na distribuição neutra ao risco dos retornos de ativos financeiros. Este trabalho se propõe a calcular a medida de risco de Bali, Cakici e Chabi-Yo (2011) com base nas opções de petróleo, a commodity mais importante da economia mundial. Como os preços das opções incorporam a expectativa do mercado, a medida de risco calculada é considerada forward-looking. Desta forma, esse trabalho também analisa a significância dessa medida em prever a atividade econômica futura. Os resultados indicaram poder preditivo em relação ao índice VIX, o qual representa a incerteza do mercado financeiro, e ao índice CFNAI, indicador da atividade econômica norte-americana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os depósitos sem vencimento são uma importante fonte de funding das instituições financeiras, e apresentam um desafio na gestão dos riscos de juros e liquidez, por não apresentarem um vencimento definido. Os depositantes podem sacar o montante de suas aplicações, bem como aportar novos volumes, a qualquer tempo sem a incidência de penalidades. Atualmente não há um modelo regulatório padronizado para mensurar o risco de juros desses produtos, bem como seu requerimento de capital. No entanto, novas regulamentações tem surgido com o intuito de, dentre outras coisas, trazer certa padronização para a modelagem dos depósitos sem vencimento, aumentando a comparabilidade do perfil de risco entre instituições financeiras. Essas regulamentações aumentam a necessidade de modelos quantitativos que definam um perfil de run-off da carteira ou de evolução dessa carteira no tempo. Este estudo tem como objetivo propor uma abordagem para modelar os fluxos de caixa esperados dos depósitos de poupança que possibilitará calcular o risco de mercado e apresentar sua aplicação dentro das novas normas de requerimento de capital que estão sendo propostas. Como resultado calculamos o risco de mercado e requerimento de capital para um balanço teórico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise do galgamento de estruturas portuárias não só é importante para a avaliação da segurança de bens, pessoas e equipamentos e das atividades junto a elas desenvolvidas, como também a nível económico e financeiro. A finalidade deste trabalho é a aplicação da metodologia desenvolvida pelo Laboratório Nacional de Engenharia Civil (LNEC) para a avaliação do risco de galgamento de estruturas portuárias ao Porto de Ponta Delgada, Açores, num período de dois anos (2011 e 2012), para cinco secções nele enquadradas. A metodologia desenvolvida ao longo desde trabalho apresenta como componentes essenciais a caraterização da agitação marítima a que estão sujeitas as secções em estudo e o cálculo do caudal médio de galgamento por metro linear de estrutura. Estas duas variáveis, inicialmente estudadas e indispensáveis neste trabalho, são obtidas com base em dados de agitação marítima em águas profundas fornecidas pelo modelo regional de previsão de agitação WAVEWATCH III, que, acoplado ao modelo espetral SWAN e ao modelo de declive suave DREAMS, permite a obtenção da agitação marítima incidente na entrada do porto e no seu interior, respetivamente. Os resultados do modelo SWAN são validados mediante uma comparação com dados medidos in situ pela boia ondógrafo localizada ao largo da zona em estudo. Os parâmetros de agitação marítima obtidos para as cinco secções em análise permitem determinar o caudal médio de galgamento, com recurso à ferramenta NN_OVERTOPPING, baseada em redes neuronais.Em seguida, como resultado da combinação entre os valores de probabilidades e de consequências associadas, quando ultrapassado um determinado caudal médio de galgamento admissível anteriormente estabelecido para cada zona em estudo, é obtido um grau de risco de galgamento para cada zona analisada, o que permite criar um mapa de risco que servirá de informação para o planeamento de operações e de futuras intervenções nessa envolvente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This research aims to understand the factors that influence intention to online purchase of consumers, and to identify between these factors those that influence the users and the nonusers of electronic commerce. Thus, it is an applied, exploratory and descriptive research, developed in a quantitative model. Data collection was done through a questionnaire administered to a sample of 194 graduate students from the Centre for Applied Social Sciences of UFRN and data analysis was performed using descriptive statistics, confirmatory factorial analysis and simple and multiple linear regression analysis. The results of descriptive statistics revealed that respondents in general and users of electronic commerce have positive perceptions of ease of use, usefulness and social influence about buying online, and intend to make purchases on Internet over the next six months. As for the non-users of electronic commerce, they do not trust the Internet to transact business, have negative perceptions of risk and social influence over purchasing online, and does not intend to make purchases on Internet over the next six months. Through confirmatory factorial analysis six factors were set up: behavioral intention, perceived ease of use, perceived usefulness, perceived risk, trust and social influence. Through multiple regression analysis, was observed that all these factors influence online purchase intentions of respondents in general, that only the social influence does not influence the intention to continue buying on the Internet from users of electronic commerce, and that only trust and social influence affect the intention to purchase online from non-users of electronic commerce. Through simple regression analysis, was found that trust influences perceptions of ease of use, usefulness and risk of respondents in general and users of electronic commerce, and that trust does not influence the perceptions of risk of non-users of electronic commerce. Finally, it was also found that the perceived ease of use influences perceived usefulness of the three groups. Given this scenario, it was concluded that it is extremely important that organizations that work with online sales know the factors that influence consumers purchasing intentions in order to gain space in their market

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work demonstrates the importance of using tools used in geographic information systems (GIS) and spatial data analysis (SDA) for the study of infectious diseases. Analysis methods were used to describe more fully the spatial distribution of a particular disease by incorporating the geographical element in the analysis. In Chapter 1, we report the historical evolution of these techniques in the field of human health and use Hansen s disease (leprosy) in Rio Grande do Norte as an example. In Chapter 2, we introduced a few basic theoretical concepts on the methodology and classified the types of spatial data commonly treated. Chapters 3 and 4 defined and demonstrated the use of the two most important techniques for analysis of health data, which are data point processes and data area. We modelled the case distribution of Hansen s disease in the city of Mossoró - RN. In the analysis, we used R scripts and made available routines and analitical procedures developed by the author. This approach can be easily used by researchers in several areas. As practical results, major risk areas in Mossoró leprosy were detected, and its association with the socioeconomic profile of the population at risk was found. Moreover, it is clearly shown that his approach could be of great help to be used continuously in data analysis and processing, allowing the development of new strategies to work might increase the use of such techniques in data analysis in health care