1000 resultados para Modelos de probabilidade


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo primário encontrar uma métrica de risco para bancos elegível a ser uma componente específica em futuros modelos de custo de capital. Como objetivo secundário, este trabalho descreve um processo de modelagem passível de ser estendido a outros segmentos bancários. O conjunto de contribuições deste trabalho consiste na visão de aplicação, no objeto de estudo (bancos de pequeno e médio porte com baixa diversificação de produtos ou segmentos no sistema financeiro brasileiro) e na acessibilidade do processo de modelagem estruturado

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).O mercado de crédito vem ganhando constantemente mais espaço na economia brasileira nos últimos anos. Haja vista isto, o risco de crédito, que tenta medir a perda com operações de crédito, tem fundamental importância e, neste contexto, a perda esperada é, sem dúvida, tema chave. Usualmente, a perda esperada relativa, EL (%), é modelada como o produto dos parâmetros de risco PD (probabilidade de default) e LGD (perda dado o default) pressupondo a independência dos mesmos. Trabalhos recentes mostram que pode haver oportunidade em melhorar o ajuste com a modelagem conjunta da perda, além da retirada da forte premissa de independência dos fatores. O presente trabalho utiliza a distribuição beta inflacionada, modelo BEINF da classe GAMLSS, para o ajuste da perda esperada relativa através de uma base de dados reais disponibilizada pela empresa Serasa Experian. Os resultados mostram que o modelo traz um bom ajuste e que há oportunidade de ganhos em sua utilização na modelagem da EL(%).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho aborda os fundamentos da relação entre a medida neutra a risco e o mundo físico, apresentando algumas metodologias conhecidas de transformação da medida de probabilidade associada a cada um destes dois contextos. Mostramos como titulos de crédito podem ser utilizados para a estimação da probabilidade de inadimplência de seus emissores, explicitando os motivos que fazem com que ela não reflita, em um primeiro momento, os dados observados historicamente. Utilizando dados de empresas brasileiras, estimamos a razão entre a probabilidade de default neutra a risco e a probabilidade de default real. Tais resultados, quando comparados com outros trabalhos similares, sugerem que a razão do prêmio de risco de empresas brasileiras possui valor maior do que a de empresas americanas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procurou identificar como estudantes do Ensino Médio se apropriam de conceitos e elaboram determinados modelos inseridos em cinética química, especificamente o modelo cinético de colisão de partículas numa reação (Teoria das Colisões). Esta análise e as reflexões que a seguiram foram baseadas, sobretudo, nos estudos realizados por Piaget, Piaget e Inhelder, Jun e Fischbein. Utilizamos como documentos as transcrições das entrevistas (pré e pós-testes) realizadas individualmente com cada aluno. Inicialmente, os estudantes foram entrevistados (pré-testes) com o intuito de identificar a familiaridade com a noção de evento probabilístico ou aleatório. Numa segunda etapa (pós-testes), esse conhecimento (ou a ausência parcial/total dele) foi posto à prova numa tentativa de se estabelecerem relações com um conteúdo específico da Química (Teoria das Colisões). Os resultados obtidos apontam para grandes discrepâncias entre o modelo cinético de colisões elaborado pelos estudantes e aquele cientificamente aceito.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work, we study the survival cure rate model proposed by Yakovlev et al. (1993), based on a competing risks structure concurring to cause the event of interest, and the approach proposed by Chen et al. (1999), where covariates are introduced to model the risk amount. We focus the measurement error covariates topics, considering the use of corrected score method in order to obtain consistent estimators. A simulation study is done to evaluate the behavior of the estimators obtained by this method for finite samples. The simulation aims to identify not only the impact on the regression coefficients of the covariates measured with error (Mizoi et al. 2007) but also on the coefficients of covariates measured without error. We also verify the adequacy of the piecewise exponential distribution to the cure rate model with measurement error. At the end, model applications involving real data are made

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work we study the survival cure rate model proposed by Yakovlev (1993) that are considered in a competing risk setting. Covariates are introduced for modeling the cure rate and we allow some covariates to have missing values. We consider only the cases by which the missing covariates are categorical and implement the EM algorithm via the method of weights for maximum likelihood estimation. We present a Monte Carlo simulation experiment to compare the properties of the estimators based on this method with those estimators under the complete case scenario. We also evaluate, in this experiment, the impact in the parameter estimates when we increase the proportion of immune and censored individuals among the not immune one. We demonstrate the proposed methodology with a real data set involving the time until the graduation for the undergraduate course of Statistics of the Universidade Federal do Rio Grande do Norte

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We presented in this work two methods of estimation for accelerated failure time models with random e_ects to process grouped survival data. The _rst method, which is implemented in software SAS, by NLMIXED procedure, uses an adapted Gauss-Hermite quadrature to determine marginalized likelihood. The second method, implemented in the free software R, is based on the method of penalized likelihood to estimate the parameters of the model. In the _rst case we describe the main theoretical aspects and, in the second, we briey presented the approach adopted with a simulation study to investigate the performance of the method. We realized implement the models using actual data on the time of operation of oil wells from the Potiguar Basin (RN / CE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Survival Analysis, long duration models allow for the estimation of the healing fraction, which represents a portion of the population immune to the event of interest. Here we address classical and Bayesian estimation based on mixture models and promotion time models, using different distributions (exponential, Weibull and Pareto) to model failure time. The database used to illustrate the implementations is described in Kersey et al. (1987) and it consists of a group of leukemia patients who underwent a certain type of transplant. The specific implementations used were numeric optimization by BFGS as implemented in R (base::optim), Laplace approximation (own implementation) and Gibbs sampling as implemented in Winbugs. We describe the main features of the models used, the estimation methods and the computational aspects. We also discuss how different prior information can affect the Bayesian estimates

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present residual analysis techniques to assess the fit of correlated survival data by Accelerated Failure Time Models (AFTM) with random effects. We propose an imputation procedure for censored observations and consider three types of residuals to evaluate different model characteristics. We illustrate the proposal with the analysis of AFTM with random effects to a real data set involving times between failures of oil well equipment

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this work we study the Hidden Markov Models with finite as well as general state space. In the finite case, the forward and backward algorithms are considered and the probability of a given observed sequence is computed. Next, we use the EM algorithm to estimate the model parameters. In the general case, the kernel estimators are used and to built a sequence of estimators that converge in L1-norm to the density function of the observable process

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We considered prediction techniques based on models of accelerated failure time with random e ects for correlated survival data. Besides the bayesian approach through empirical Bayes estimator, we also discussed about the use of a classical predictor, the Empirical Best Linear Unbiased Predictor (EBLUP). In order to illustrate the use of these predictors, we considered applications on a real data set coming from the oil industry. More speci - cally, the data set involves the mean time between failure of petroleum-well equipments of the Bacia Potiguar. The goal of this study is to predict the risk/probability of failure in order to help a preventive maintenance program. The results show that both methods are suitable to predict future failures, providing good decisions in relation to employment and economy of resources for preventive maintenance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In survival analysis, the response is usually the time until the occurrence of an event of interest, called failure time. The main characteristic of survival data is the presence of censoring which is a partial observation of response. Associated with this information, some models occupy an important position by properly fit several practical situations, among which we can mention the Weibull model. Marshall-Olkin extended form distributions other a basic generalization that enables greater exibility in adjusting lifetime data. This paper presents a simulation study that compares the gradient test and the likelihood ratio test using the Marshall-Olkin extended form Weibull distribution. As a result, there is only a small advantage for the likelihood ratio test

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Survival models deals with the modeling of time to event data. However in some situations part of the population may be no longer subject to the event. Models that take this fact into account are called cure rate models. There are few studies about hypothesis tests in cure rate models. Recently a new test statistic, the gradient statistic, has been proposed. It shares the same asymptotic properties with the classic large sample tests, the likelihood ratio, score and Wald tests. Some simulation studies have been carried out to explore the behavior of the gradient statistic in fi nite samples and compare it with the classic statistics in diff erent models. The main objective of this work is to study and compare the performance of gradient test and likelihood ratio test in cure rate models. We first describe the models and present the main asymptotic properties of the tests. We perform a simulation study based on the promotion time model with Weibull distribution to assess the performance of the tests in finite samples. An application is presented to illustrate the studied concepts

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior