13 resultados para AFT Models for Crash Duration Survival Analysis
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
The present work aims to study the macroeconomic factors influence in credit risk for installment autoloans operations. The study is based on 4.887 credit operations surveyed in the Credit Risk Information System (SCR) hold by the Brazilian Central Bank. Using Survival Analysis applied to interval censured data, we achieved a model to estimate the hazard function and we propose a method for calculating the probability of default in a twelve month period. Our results indicate a strong time dependence for the hazard function by a polynomial approximation in all estimated models. The model with the best Akaike Information Criteria estimate a positive effect of 0,07% for males over de basic hazard function, and 0,011% for the increasing of ten base points on the operation annual interest rate, toward, for each R$ 1.000,00 on the installment, the hazard function suffer a negative effect of 0,28% , and an estimated elevation of 0,0069% for the same amount added to operation contracted value. For de macroeconomics factors, we find statistically significant effects for the unemployment rate (-0,12%) , for the one lag of the unemployment rate (0,12%), for the first difference of the industrial product index(-0,008%), for one lag of inflation rate (-0,13%) and for the exchange rate (-0,23%). We do not find statistic significant results for all other tested variables.
Resumo:
Este relatório faz uma análise teórica das diversas correntes em estratégia empresarial sobre a questão da vantagem competitiva. A análise aqui apresentada se fundamenta em um modelo bidimensional que classifica as teorias de estratégia em quatro grupos: (1) Análise de Indústria, (2) Processo de Mercado, (3) Teoria dos Recursos e (4) Competências Dinâmicas. As noções de vantagem competitiva inerentes a cada visão são descritas e comparadas. Uma segunda secção apresenta os resultados de uma análise visando selecionar um conjunto de empresas brasileiras de alto desempenho, e um grupo de controle a partir do cálculo do retorno médio sobre o patrimônio líquido. Uma base dados em MS Access é parte integrante deste relatório.
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
Este trabalho tem como proposta estudar se o nível de capital sobre os ativos ponderados pelo risco, o Índice de Basileia, mantido pelos intermediários financeiros, pode servir como preditor de falência dos intermediários financeiros. Um dos desafios apresentados foi o fato do Índice de Basileia reportado para cada instituição estar disponível ao público apenas a partir de 2009, ao passo que grande parte das falências bancárias no Brasil ocorreram no período entre 1995 e 2005. Dessa forma, construindo um Índice de Basileia Sintético (IBS) para o período de dezembro de 1995 a dezembro de 2014, testou-se a hipótese de que um nível mais alto de capital em relação aos ativos de risco diminui a probabilidade de falência da instituição. São utilizados modelos logit com variável binária discreta e análise survival, possibilitando estimar o quanto que um aumento no nível de capital proporciona em tempo de vida para a instituição. A amostra estudada é composta por 313 intermediários financeiros atuando no Brasil, tanto de controle público quanto privado, com dados semestrais. Em linha com estudos anteriores, foi encontrada evidência empírica apontando para uma relação inversa entre nível de capital e probabilidade de falência, tanto com o emprego de logit como de survival.
Resumo:
Este estudo buscou analisar o efeito das conexões políticas das empresas no nível do Conselho de Administração sobre o desempenho, após o processo de aquisição. Estudos anteriores já identificaram esta relação apontando efeitos, de positivos a neutros das conexões políticas sobre o desempenho, além de influenciar a frequência e o tamanho das operações (BROCKMAN; RUI; ZOU, 2013; LIU; WANG; ZHANG, 2013). Esta pesquisa estende tais análises aplicando o modelo para as empresas brasileiras além de incluir informações sobre o tipo de conexão política para avaliar diferentes impactos. Este estudo foi conduzido dentro do âmbito das empresas compradoras listadas na BM&Bovespa entre os anos de 1999 e 2014, utilizando modelos econométricos de Propensity Score Matching e dados em painel. Partindo da análise de currículos dos conselheiros, foram codificados os diferentes tipos de conexão, como instituições financeiras públicas e de desenvolvimento e agências reguladoras além das formas tradicionais de conexões políticas (FACCIO, 2006). Com base nos resultados foi encontrada uma associação entre as conexões com agências reguladoras e o desempenho pós-aquisição das empresas adquirentes, bem como indícios de uma relação entre os efeitos das conexões com bancos públicos e de desenvolvimento. Não foi possível apontar resultados para as conexões políticas tradicionais
Resumo:
This paper deals with the testing of autoregressive conditional duration (ACD) models by gauging the distance between the parametric density and hazard rate functions implied by the duration process and their non-parametric estimates. We derive the asymptotic justification using the functional delta method for fixed and gamma kernels, and then investigate the finite-sample properties through Monte Carlo simulations. Although our tests display some size distortion, bootstrapping suffices to correct the size without compromising their excellent power. We show the practical usefulness of such testing procedures for the estimation of intraday volatility patterns.
Resumo:
This paper develops a family of autoregressive conditional duration (ACD) models that encompasses most specifications in the literature. The nesting relies on a Box-Cox transformation with shape parameter λ to the conditional duration process and a possibly asymmetric shocks impact curve. We establish conditions for the existence of higher-order moments, strict stationarity, geometric ergodicity and β-mixing property with exponential decay. We next derive moment recursion relations and the autocovariance function of the power λ of the duration process. Finally, we assess the practical usefulness of our family of ACD models using NYSE transactions data, with special attention to IBM price durations. The results warrant the extra flexibility provided either by the Box-Cox transformation or by the asymmetric response to shocks.
Resumo:
This paper develops a family of autoregressive conditional duration (ACD) models that encompasses most specifications in the literature. The nesting relies on a Box-Cox transformation with shape parameter λ to the conditional duration process and a possibly asymmetric shocks impact curve. We establish conditions for the existence of higher-order moments, strict stationarity, geometric ergodicity and β-mixing property with exponential decay. We next derive moment recursion relations and the autocovariance function of the power λ of the duration process. Finally, we assess the practical usefulness of our family of ACD models using NYSE price duration data on the IBM stock. The results warrant the extra flexibility provided either by the Box-Cox transformation or by the asymmetric response to shocks.
Resumo:
Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.
Resumo:
In a reccnt paper. Bai and Perron (1998) considcrccl theoretical issues relatec\ lo lhe limiting distriblltion of estimators and test. statist.ics in the linear model \\'ith multiplc struct ural changes. \Ve assess. via simulations, the adequacy of the \'arious I1Iethods suggested. These CO\'er the size and power of tests for structural changes. the cO\'erage rates of the confidence Íntervals for the break dates and the relat.Í\'e merits of methods to select the I1umber of breaks. The \'arious data generating processes considered alIo,,' for general conditions OIl the data and the errors including differellces across segmcll(s. Yarious practical recommendations are made.
Resumo:
This paper deals with the estimation and testing of conditional duration models by looking at the density and baseline hazard rate functions. More precisely, we foeus on the distance between the parametric density (or hazard rate) function implied by the duration process and its non-parametric estimate. Asymptotic justification is derived using the functional delta method for fixed and gamma kernels, whereas finite sample properties are investigated through Monte Carlo simulations. Finally, we show the practical usefulness of such testing procedures by carrying out an empirical assessment of whether autoregressive conditional duration models are appropriate to oIs for modelling price durations of stocks traded at the New York Stock Exchange.
Resumo:
This paper uses an output oriented Data Envelopment Analysis (DEA) measure of technical efficiency to assess the technical efficiencies of the Brazilian banking system. Four approaches to estimation are compared in order to assess the significance of factors affecting inefficiency. These are nonparametric Analysis of Covariance, maximum likelihood using a family of exponential distributions, maximum likelihood using a family of truncated normal distributions, and the normal Tobit model. The sole focus of the paper is on a combined measure of output and the data analyzed refers to the year 2001. The factors of interest in the analysis and likely to affect efficiency are bank nature (multiple and commercial), bank type (credit, business, bursary and retail), bank size (large, medium, small and micro), bank control (private and public), bank origin (domestic and foreign), and non-performing loans. The latter is a measure of bank risk. All quantitative variables, including non-performing loans, are measured on a per employee basis. The best fits to the data are provided by the exponential family and the nonparametric Analysis of Covariance. The significance of a factor however varies according to the model fit although it can be said that there is some agreements between the best models. A highly significant association in all models fitted is observed only for nonperforming loans. The nonparametric Analysis of Covariance is more consistent with the inefficiency median responses observed for the qualitative factors. The findings of the analysis reinforce the significant association of the level of bank inefficiency, measured by DEA residuals, with the risk of bank failure.
Resumo:
The study presents the results and recommendations deriving from the application of two supply chain management analysis models as proposed by the Supply Chain Council (SCOR, version 10.0) and by Lambert (1997, Framework for Supply Chain Management) on the logistics of cash transfers in Brazil. Cash transfers consist of the transportation of notes to and from each node of the complex network formed by the bank branches, ATMs, armored transportation providers, the government custodian, Brazilian Central Bank and financial institutions. Although the logistic to sustain these operations is so wide-ranged (country-size), complex and subject to a lot of financial regulations and security procedures, it has been detected that it was probably not fully integrated. Through the use of a primary and a secondary data research and analysis, using the above mentioned models, the study ends up with propositions to strongly improve the operations efficiency