84 resultados para Análise de sobrevivência. Modelos de longa duração. Método deLaplace. MCMC
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Dado a importância da gestão de risco associada às operações de crédito, modelos estatísticos que avaliam o risco de inadimplência tornaram-se fundamentais na mensuração do risco associado a um cliente. Neste contexto, foi desenvolvido um modelo dinâmico de crédito utilizando variáveis características dos clientes, comportamentais e macroeconômicas através da Análise de Sobrevivência aplicada a dados discretos. Os resultados obtidos indicam que a inclusão de variáveis macroeconômicas provoca um efeito significativo, porém baixo, no ajuste do modelo. Entretanto, nota-se uma melhora expressiva no poder de previsão da taxa de inadimplência do portfólio quando aplicado a um conjunto de dados de validação.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. A Monte Carlo study explores the finite sample performance of this procedure and evaluates the forecasting accuracy of models selected by this procedure. Two empirical applications confirm the usefulness of the model selection procedure proposed here for forecasting.
Resumo:
Os modelos hazard, também conhecidos por modelos de tempo até a falência ou duração, são empregados para determinar quais variáveis independentes têm maior poder explicativo na previsão de falência de empresas. Consistem em uma abordagem alternativa aos modelos binários logit e probit, e à análise discriminante. Os modelos de duração deveriam ser mais eficientes que modelos de alternativas discretas, pois levam em consideração o tempo de sobrevivência para estimar a probabilidade instantânea de falência de um conjunto de observações sobre uma variável independente. Os modelos de alternativa discreta tipicamente ignoram a informação de tempo até a falência, e fornecem apenas a estimativa de falhar em um dado intervalo de tempo. A questão discutida neste trabalho é como utilizar modelos hazard para projetar taxas de inadimplência e construir matrizes de migração condicionadas ao estado da economia. Conceitualmente, o modelo é bastante análogo às taxas históricas de inadimplência e mortalidade utilizadas na literatura de crédito. O Modelo Semiparamétrico Proporcional de Cox é testado em empresas brasileiras não pertencentes ao setor financeiro, e observa-se que a probabilidade de inadimplência diminui sensivelmente após o terceiro ano da emissão do empréstimo. Observa-se também que a média e o desvio-padrão das probabilidades de inadimplência são afetados pelos ciclos econômicos. É discutido como o Modelo Proporcional de Cox pode ser incorporado aos quatro modelos mais famosos de gestão de risco .de crédito da atualidade: CreditRisk +, KMV, CreditPortfolio View e CreditMetrics, e as melhorias resultantes dessa incorporação
Resumo:
Este estudo apresenta uma análise comparativa dos modelos de regulação dos setores nucleares da Argentina - a cargo da Autoridad Regulatoria Nuclear (ARN), e do Brasil- sob a responsabilidade da Comissão Nacional de Energia Nuclear (CNEN), que procura identificar, por meio de critérios de análise selecionados a partir do referencial teórico, qual modelo é o mais adequado objetivando o uso seguro da energia nuclear. O Capítulo I apresenta uma breve descrição dos modelos de regulação dos setores nucleares do Brasil e da Argentina, bem como os objetivos, a delimitação do estudo e a relevância da pesquisa. O referencial teórico, Capítulo 2, contém tópicos sobre a reforma do Estado, os tipos de regulação, a regulação no Brasil e as características do setor nuclear internacional e brasileiro. A seguir, foram selecionados critérios de análise que correspondem às características das agências reguladoras brasileiras criadas para outros setores da economia, no bojo da reforma de Estado implementada no Brasil a partir de meados dos anos 90. Posteriormente, estes critérios de análise foram utilizados como parâmetros de comparação entre os modelos de regulação dos setores nucleares da Argentina e do Brasil. A metodologia de pesquisa é descrita no Capítulo 3, definindo-se o tipo de pesquisa, o universo e a amostra, a forma de coleta e tratamento dos dados e as limitações do método empregado. No Capítulo 4 é descrito o modelo de regulação do setor nuclear argentino, apresentando-se também um breve histórico sobre a criação da ARN. O Capítulo 5 apresenta a descrição do modelo de regulação do setor nuclear brasileiro, os estudos e recomendações existentes sobre a regulação do setor e os resultados da pesquisa empírica realizada junto aos servidores da CNEN. Com base na análise comparativa, Capítulo 6, pode-se concluir, Capítulo 7, que a estrutura regulatória e fiscalizadora do setor nuclear argentino, sob responsabilidade da ARN, mostra-se mais adequada no que tange ao uso seguro da energia nuclear, do que o modelo adotado no Brasil pela CNEN, pois incorpora os critérios de independência funcional, institucional e financeira, definição de competências, excelência técnica e transparência, necessários ao desempenho de suas funções de forma autônoma, ética, isenta e ágil.
Resumo:
A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação
Resumo:
De todas as anomalias documentadas na literatura de finanças internacionais, a sistemática violação da Paridade Descoberta de Juros, ou como é mais conhecida – viés nas taxas futuras câmbio - é sem dúvida um assunto no campo de finanças internacionais que chamou muita atenção e gerou inúmeros estudos nos últimos 30 anos. A questão tratada neste trabalho é se estratégias designadas a explorar a violação da Paridade Descoberta de Juros são lucrativas o suficiente de forma a torná-las uma nova classe de ativos entre os investidores no mercado de câmbio, principalmente os especuladores. Segundo um relatório do Bank for International Settlements (BIS) de 2004, o mercado de moedas tornou-se uma nova classe de ativos por duas razões: violação sistemática da Paridade Descoberta de Juros e alterações macroeconômicas que geraram movimentos de valorização ou desvalorização de longa duração. Apresentamos primeiramente uma revisão da extensa literatura que trata da violação da Paridade Descoberta de Juros e posteriormente um estudo sobre tal violação para uma série de moedas escolhidas conforme sua relevância no volume de negociações médias diárias no mercado de câmbio internacional. Observamos que a violação, assim como já evidenciada em outros estudos, realmente existiu tanto para países desenvolvidos como para países em desenvolvimento. A parte final do trabalho mostrou que as operações destinadas a explorar tal violação não são lucrativas quando analisadas do ponto de vista de uma única moeda. Apesar disso, quando se utilizam modelos de otimização de carteiras, percebem-se não somente retornos comparáveis a outras classes de ativos comumente utilizadas pelos especuladores, mas também com uma relação risco retorno sensivelmente maior. Concluiu-se então que carteiras ótimas de moedas designadas a explorar a violação da hipótese de mercado eficiente são lucrativas, e tal prática pode realmente explicar o aumento nas negociações diárias de diversas moedas nos últimos anos.
Resumo:
O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
Resumo:
Identifica-se que a aplicação de técnicas estatísticas e financeiras nos modelos para a tomada de decisão dos investimentos de marketing se apresenta muito abaixo de seu potencial. O modelo do Valor do Cliente e o cálculo do Valor Vitalício do Cliente vêm ganhando destaque como referência bibliográfica no tema, provocando discussão nos meios acadêmicos e empresariais em torno de como projetar o fluxo de caixa futuro descontado, gerado por um cliente durante o tempo que manterá relacionamento comercial com a empresa. Apesar de na literatura acadêmica existirem diversos artigos descrevendo o cálculo do Valor do Cliente, poucos sugerem técnicas estatísticas e estimadores que poderiam ser úteis para este fim. O modelo de cálculo usado como referência neste estudo propõe uma combinação original envolvendo as técnicas de análise de sobrevivência com modelos lineares hierárquicos. Nesta tese será demonstrado como os Modelos Lineares Hierárquicos podem ser utilizados como uma importante ferramenta para entender, explicar e prever a margem de contribuição gerada por um cliente. Essa técnica recentemente passou a ser utilizada como ferramenta nas questões relacionadas à Administração de Empresas e ainda não foi aplicada no cálculo do Valor Vitalício do Cliente. Entre outras vantagens, a técnica permite levar em consideração, no cálculo, tanto as características individuais de cada cliente, quanto à tendência da margem gerada por ele ao longo do tempo. A Análise de Sobrevivência foi utilizada para modelar a probabilidade de um cliente manter o relacionamento comercial com a Administradora. Na tentativa de contribuir para o tema, este estudo desenvolveu uma aplicação a partir da modelagem desenvolvida por Cox (1972). Essa metodologia também permite estimar o comportamento do cliente levando em conta suas características individuais. Como ilustração, o modelo será aplicado em uma das cinco principais Administradoras de Cartões de Crédito do Brasil. Vale observar que o mesmo modelo poderia ser aplicado em outras indústrias com características semelhantes, como telefonia, provedores de internet, bancos e financeiras. Dada a natureza exploratória do estudo, suas conclusões se restringem à análise da amostra; entretanto, elas podem se constituir em um ponto de partida para outras pesquisas mais aprofundadas.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian in ation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in di¤erent measures of forecasting accuracy are substantial, especially for short horizons.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
Jà há algum tempo o ocidente se vê questionado nos fundamentos que estruturam o saber e, consequentemente. o universo das ciências . ... A chamada razão. até então o pardigma absoluto. vem sendo contraposta a intuição como forma igualmente válida de alicerçar a ação humana na busca do conhecimento verdadeiro. Na Administração, tanto quanto em outros campos do conhecimento. a intuição vem sendo abordada por diversos estudiosos das organizações no seu ponto mais nevrálgico: a decisão gerencial. O presente trabalho discute esta questão a partir de uma análise crítica dos modelos racionais de decisão preconizados. estes fundamentados sobre uma compreensão funcionalista de organização e intenciona acrescentar às discussões já existentes a noção de intuição como método de pensamento do humano, portanto tão lógico quanto a dedução. Para tal, este estudo se vale de alguns referenciais postos por pensadores mais contemporâneos, destacando a Fenomenologia de Edmund Husserl. São abordados ainda estruturadas na direção fundamento da ação humana, à compreensão husserliana algumas configurações organizacionais da validação da intuição também como mesmo que nao necessariamente atreladas de intuição. O trabalho ainda defende a noção de supra-realidade, noção esta que traduz a síntese das diversas lógicas e não a mera agregação delas. Procura, assim. abrir espaço para reflexões na direção da necessidade da construção de novos arranjos organizacionais que reflitam essa síntese.
Resumo:
Este ensaio apresenta um estudo sobre a demanda por serviço de saúde no mercado de saúde suplementar utilizando, através de uma análise econométrica, modelos de regressão de dados de contagem para verificar os fatores monetários e não monetários que podem influenciar a quantidade demandada por este serviço, e determinar se há risco moral na determinação desta demanda, no caso de um modelo de visitas médicas de especialidade.
Resumo:
Este trabalho se propõe a testar e quantificar a importância do investimento de longo prazo, captado pela série de desembolsos da linha BNDES Finem, na produção industrial brasileira. Através dos modelos de causalidade de Granger e Função resposta ao impulso, podemos verificar as respostas acumuladas ao longo de três anos da linha Finem a choques positivos de um desvio padrão nas variáveis inflação, produção industrial, spread, e, da mesma forma um choque na variável Finem com resposta nas variáveis acima descritas. Além disso, é possível identificar a importância do BNDES como um ator anticíclico em períodos de crise como na economia brasileira. Como resultado, encontramos que apesar dos desembolsos Finem não Granger causarem a produção industrial brasileira, se testadas em conjunto com dados de inflação e a diferença entre a Selic e a TJLP rejeita-se a hipótese nula de não causalidade a 1% de significância. Já os testes de funções de resposta ao impulso indicam que a taxa de crescimento da produção industrial tem resposta positiva a um choque de desvio padrão nos desembolsos de Finem. Contudo, se testada em conjunto um choque no Finem apesar de impactar positivamente a produção industrial acaba pressionando a inflação.
Resumo:
A Análise Financeira dos Índices tem sido usada largamente, desde o fim do século passado na avaliação das demonstrações financeiras; no entanto, encontrou-se desacreditada por volta dos anos 60. Assim, por essa época, Beaver; baseando-se na literatura existente, testa empiricamente muitas crenças tidas como verdadeiras e chega a resultados diferentes. Para isso, utilizou-se de metodologia estatística univariada, isto é, analisou cada índice isoladamente. Altman refuta a metodologia usada por Beaver e cria um modelo utilizando se da estatística multivariada, isto é, vários Índices são estudados, estabelecendo um score limite. Outros autores, baseando-se nestes dois estudos, ora criticando, ora comparando, montam outros modelos. Assim temos: Deakin, Blum, Libby, Kennedy, Kanitz, Zappa, Collongues, Conan, Holder, C.E.S.A. e outros que não foram mencionados neste trabalho. Este estudo mostrou o trabalho de cada autor individualmente e, num segundo momento, apresentou críticas e comparações sofridas por esses modelos, procurando evidenciar que essas críticas e comparações serviram para estimular o desenvolvimento da Análise Financeira, a tal ponto que pode-se citar Altman que, devido a críticas e também ao seu interesse em atualizar os dados, reformula o seu modelo original (1968), criando o modelo Zeta (1977). A segunda preocupação deste trabalho foi evidenciar alguns pontos que puderam ser colhidos do material disponível. Assim, procurou-se responder quais os Índices que mais foram usados pelos modelos e, como conclusão, chegou-se a evidência de que não existem alguns poucos índices que melhor discriminem uma empresa falida e não falida. Outra indagação foi, se esses modelos serviriam para todos os tipos e tamanhos de empresas, e concluiu-se que servem, desde que o analista os adapte às suas necessidades peculiares. E, por fim, procurou-se verificar a que finalidade esses modelos podiam corresponder. E, assim, apontou-se a análise de crédito comercial, para investimento, para decisões internas, para compra e venda de ações etc. Conclui-se, pois, que os vários modelos desenvolvidos nestes últimos anos, realmente trouxeram progresso à Análise Financeira, mas que esses resultados devem ser cuidadosa mente adaptados às diversas realidades e mais, dado ao desenvolvimento de outras ciências, podem somar-se esforços com intuito de alcançar um maior desenvolvimento.
Resumo:
Esta tese defende que os modelos de mensuração da competitividade de destinos turísticos estão estruturados essencialmente com base em fatores da oferta e foram concebidos fundamentalmente pelos estudiosos e profissionais do turismo. Assim, o objetivo foi traduzir a experiência do turista em termos de competitividade do destino. Ou seja, significa incorporar aos estudos sobre o tema o fator da demanda. Para alcançar esse propósito, discutiram-se as principais teorias que explicam o fenômeno da competitividade e os modelos utilizados para mensurar o fenômeno competitivo. Foram identificadas as abordagens principais, os elementos-chave que influenciam a competitividade e as lacunas teóricas dos modelos. Discutiu-se um método para captar a experiência turística em destinos que foi testado com diferentes tipos de turistas por meio de uma pesquisa qualitativa. Os dados foram submetidos à análise de conteúdo e à luz do modelo brasileiro de competitividade. Os resultados mostraram que a competitividade de destinos é analisada essencialmente por fatores de oferta e consegue captar apenas parcialmente a avaliação realizada pela demanda turística. Falta, portanto, incorporar o fator da demanda aos estudos de competitividade para proporcionar aos gestores do destino mais precisão e segurança nas suas ações.