174 resultados para Processo estocastico - Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho são abordados empiricamente dois temas bastante atuais no âmbito da política monetária: a estimativa de uma Regra de Taylor aumentada com a inclusão de um vetor de preços de ativos financeiros e a hipótese de não-linearidade da Regra de Taylor. Os principais resultados encontrados sugerem que o Banco Central do Brasil não segue uma Regra de Taylor aumentada na condução da política monetária e que há evidências de não-linearidade de sua função de reação. Além disso, encontramos evidência de recuo da taxa de juros real de equilíbrio (ou neutra) da economia brasileira.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse estudo foi motivado pela falta de bons fundos de investimento multimercado abertos para captação no Brasil e tem como objetivo analisar a viabilidade de utilizar a análise de estilo baseada em retorno para clonar retornos e comportamento de determinados fundos de investimento multimercado do mercado brasileiro. Modelos já testados no exterior e no Brasil foram pesquisados e optou-se por adaptar o modelo linear proposto por LIMA e VICENTE (2007). Verificou-se que o modelo de espaço de estados é mais adequado para clonar retornos de determinados fundos de investimento do que o modelo de regressão com parâmetros fixos. Resultados animadores foram obtidos para quatro dos cinco fundos analisados nesse estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Levantamento bibliográfico abrangendo os principais trabalhos relativos ao "CAPM - Capital Asset Pricing Model" que se acham esparsos em vasta literatura. Aborda desde a teoria de seleção de carteira, o desenvolvimento e testes do modelo, suas implicações para a teoria financeira. Inclui também considerações sobre o relaxamento dos pressupostos básicos e "sobre a influência do fator inflacionário na forma e validade do modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trato do problema da assimetria de informação no mercado de crédito e do uso da informação externa como forma de minimizar esse efeito negativo. Descreve os modelos teóricos de troca de informação na presença de Bureaus de crédito e aborda o mercado brasileiro de crédito, conduzindo avaliações qualitativas e quantitativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesta tese estuda-se a Percepção de Adoção de Instrumentos de Mensuração de Resultados de Marketing (PAIMRM) e a sua relação com a Maturidade da Indústria (MI) à qual as empresas pertencem. Seus objetivos gerais são (1) desenvolver e validar uma escala de PAIMRM, e (2) testar um modelo teórico que relacione PAIMRM com MI. Estes objetivos também se desdobram em objetivos secundários: (A) discutir as implicações deste modelo teórico em diferentes estágios de MI e (B) testar um modelo teórico semelhante que relacione PAIMRM e Maturidade da Empresa (ME). Para isto foram utilizados 419 questionários coletados junto a executivos de Marketing de diversas empresas e em diferentes ondas de coleta. Primeiramente uma escala de PAIMRM com 16 itens e 6 dimensões foi desenvolvida e validada utilizando um procedimento que incluiu sete passos: (1) Definição Conceitual do Construto; (2) Geração dos Itens; (3) Validação de Conteúdo; (4) Definição de Dimensões; (5) Análise de Dados; (6) Validade Nomológica; (7) Validade de Grupos Conhecidos. No passo 6, duas hipóteses foram testadas e suportadas por dois modelos de equação estrutural. O primeiro modelo suportou a relação entre PAIMRM e MI (H1), com boa adequação do modelo aos dados, enquanto o segundo suportou a relação entre PAIMRM e ME (H1.b), com razoável adequação do modelo aos dados. No passo 7, três hipóteses foram testadas pela análise de diferenças entre médias e análise de variáveis categorizadas, para três grupos conhecidos: MI baixo, MI médio e MI alto. É comum em indústrias com MI baixo a preocupação pela falta de estrutura, tecnologia e definição de mercado, explicando a expectativa de que a PAIMRM em indústrias não maduras seja baixa. Em estágios intermediários, as empresas que compõem uma indústria passaram por uma “seleção natural” e algumas das questões que definem o modelo de negócios foram respondidas, mas não sistematizada e nem assimilada pelos gestores, fazendo com que o esforço dispendido para avaliar o desempenho empresarial seja maior, o que resultaria em aumento da PAIMRM, explicando a expectativa de que a PAIMRM seja alta em indústrias medianamente maduras. Finalmente, em estágios subsequentes de MI, a consolidação dos modelos de negócios, assimilação de conhecimento advindo de informações anteriormente adquiridas e a relativa diminuição de alterações no ambiente da indústria, reduzem a necessidade de esforço para acompanhar os negócios, supõe-se que PAIMRM seja baixo em indústria maduras. A hipótese de PAIMRM baixo quando MI for baixo (H2.a) foi suportada pelos dois testes, enquanto a hipótese de PAIMRM alto quando MI for médio (H2.b) e PAIMRM baixo quando MI for alto (H2.c) não foram suportadas. Implicações gerenciais incluem específicas decisões de adoção de instrumentos de mensuração de resultados de marketing para cada estágio de MI, uma vez que tais decisões são influenciadas tanto pela maturidade da indústria na qual a empresa está inserida quanto pela própria maturidade da empresa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os ácaros ectoparasitas Varroa destructor, que parasitam as abelhas tornaram-se um problema global. Embora seja pouco provável que estes ácaros, por si só, provoquem a mortalidade das colmeias, eles desempenham um importante papel como vetor de muitas doenças virais. E estas doenças são identificados como algumas das mais importantes razões para a Desordem do Colapso das Colônias. Os efeitos da infestação do V.destructor são distintas em diferentes partes do mundo. Maiores mortalidades de colônias têm sido relatadas em colônias de abelhas européias (AE) em países da Europa, Ásia e América do Norte. No entanto, este ácaro está presente no Brasil já por muitos anos e não existem relatos de perdas em colônias das abelhas africanizadas (AA). Estudos realizados no México mostraram que alguns comportamentos de resistência ao ácaro Varroa - especialmente o grooming e o comportamento higiênico - são diferentes em cada uma das subespécie. Poderiam então esses mecanismos explicar por que as abelhas africanizadas são menos suscetíveis à Desordem do Colapso das Colônias? A fim de responder a esta pergunta, propomos um modelo matemático baseado em equações diferenciais, com o objetivo de analisar o papel desses mecanismos de resistência na saúde geral da colônia e na capacidade da colônia para enfrentar desafios ambientais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A avaliação de risco sísmico, fundamental para as decisões sobre as estruturas de obras de engenharia e mitigação de perdas, envolve fundamentalmente a análise de ameaça sísmica. Calcular a ameaça sísmica é o mesmo que calcular a probabilidade de que certo nível de determinada medida de intensidade em certo local durante um certo tempo seja excedido. Dependendo da complexidade da atividade geológica essas estimativas podem ser bas- tante sofisticadas. Em locais com baixa sismicidade, como é o caso do Brasil, o pouco tempo (geológico) de observação e a pouca quantidade de informação são fontes de muitas incer- tezas e dificuldade de análise pelos métodos mais clássicos e conhecidos que geralmente consideram, através de opiniões de especialistas, determinadas zonas sísmicas. Serão discutidas algumas técnicas de suavização e seus fundamentos como métodos al- ternativos ao zoneamento, em seguida se exemplifica suas aplicações no caso brasileiro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper tests the optimality of consumption decisions at the aggregate level taking into account popular deviations from the canonical constant-relative-risk-aversion (CRRA) utility function model-rule of thumb and habit. First, based on the critique in Carroll (2001) and Weber (2002) of the linearization and testing strategies using euler equations for consumption, we provide extensive empirical evidence of their inappropriateness - a drawback for standard rule- of-thumb tests. Second, we propose a novel approach to test for consumption optimality in this context: nonlinear estimation coupled with return aggregation, where rule-of-thumb behavior and habit are special cases of an all encompassing model. We estimated 48 euler equations using GMM. At the 5% level, we only rejected optimality twice out of 48 times. Moreover, out of 24 regressions, we found the rule-of-thumb parameter to be statistically significant only twice. Hence, lack of optimality in consumption decisions represent the exception, not the rule. Finally, we found the habit parameter to be statistically significant on four occasions out of 24.