969 resultados para Consistent term structure models


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artigo estuda a previsão da estrutura a termo da taxa de juros brasileira utilizando de fatores comuns extraídos de uma vasta base de séries macroeconômicas. Os períodos para estimação e previsão compreendem o intervalo de Janeiro de 2000 a Maio de 2012. Foram empregas 171 séries mensais para a construção da base. Primeiramente foi implementado o modelo proposto por Moench (2008), no qual a dinâmica da taxa de juros de curto prazo é modelada através de um FAVAR e a estrutura a termo é derivada utilizando-se de restrições implicadas por não arbitragem. A escolha pela adoção deste modelo se deve aos resultados obtidos no estudo original, nos quais tal modelagem apresentou melhor desempenho preditivo para horizontes intermediários e longos quando comparado com benchmarks usuais. Contudo, tais resultados também apresentaram uma deterioração progressiva à medida que as maturidades aumentam, evidenciando uma possível inadequação do modelo para as partes intermediária e longa da curva. A implementação deste modelo para a estrutura a termo brasileira levou a resultados muito similares ao do estudo original. Visando contornar a deterioração mencionada, foi proposta uma modelagem alternativa na qual a dinâmica de cada taxa é modelada conjuntamente com os fatores macroeconômicos, eliminando-se as restrições implicadas por não arbitragem. Tal modelagem proporcionou resultados de previsão amplamente superiores e através dela foi possível confirmar a inadequação descrita. Por fim, também foi realizada a inserção dos fatores macro na dinâmica dos fatores beta do modelo de Diebold e Li (2006), levando a um grande ganho de capacidade preditiva, principalmente para horizontes maiores de previsão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa analisar a dinâmica das expectativas de inflação em função das condições macroeconômicas. Para tal, extraímos as curvas de inflação implícita na curva de títulos públicos pré-fixados e estimamos um modelo de fatores dinâmicos para sua estrutura a termo. Os fatores do modelo correspondem ao nível, inclinação e curvatura da estrutura a termo, que variam ao longo do tempo conforme os movimentos no câmbio, na inflação, no índice de commodities e no risco Brasil implícito no CDS. Após um choque de um desvio padrão no câmbio ou na inflação, a curva de inflação implícita se desloca positivamente, especialmente no curto prazo e no longo prazo. Um choque no índice de commodities também desloca a curva de inflação implícita positivamente, afetando especialmente a parte curta da curva. Em contraste, um choque no risco Brasil desloca a curva de inflação implícita paralelamente para baixo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho propõe o desenvolvimento de um modelo de três fatores em que os movimentos da Estrutura a Termo da Taxa de Juros em Dólar, o Cupom Cambial, são determinados por variáveis macroeconômicas observáveis. O estudo segue a metodologia elaborada por Huse (2011), que propõe um modelo baseado nos estudos de Nelson e Siegel (1987) e Diebold e Li (2006). Os fatores utilizados são: taxa de câmbio em real por dólar, spread do Credit Default Swap (CDS) Brasil de cinco anos, índice de preço de commodities, taxa de cupom cambial futura com vencimento em três meses, taxa futura de juros em dólar com cupom zero (Libor), volatilidade implícita da taxa de câmbio esperada pelo mercado de hoje até um ano, e inflação implícita de um ano no Brasil. O modelo foi capaz de explicar 95% das mudanças na estrutura a termo do cupom cambial. Aumentos no spread do CDS, na taxa de cupom cambial de três meses, na Libor, no índice de preço de commodities, e na volatilidade implícita do câmbio com vencimento em um ano estão diretamente relacionados com aumento na curva de juros em dólar. Por sua vez, a depreciação cambial tem correlação positiva com as maturidades mais curtas, até 2.5 anos, e negativo com a parte longa, até cinco anos. Choques na inflação implícita têm um pequeno impacto positivo para vencimentos curtos, mas levemente negativo para vencimentos mais longos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No Brasil, o mercado de crédito corporativo ainda é sub-aproveitado. A maioria dos participantes não exploram e não operam no mercado secundário, especialmente no caso de debêntures. Apesar disso, há inúmeras ferramentas que poderiam ajudar os participantes do mercado a analisar o risco de crédito e encorajá-los a operar esses riscos no mercado secundário. Essa dissertação introduz um modelo livre de arbitragem que extrai a Perda Esperada Neutra ao Risco Implícita nos preços de mercado. É uma forma reduzida do modelo proposto por Duffie and Singleton (1999) e modela a estrutura a termo das taxas de juros através de uma Função Constante por Partes. Através do modelo, foi possível analisar a Curva de Perda Esperada Neutra ao Risco Implícita através dos diferentes instrumentos de emissores corporativos brasileiros, utilizando Títulos de Dívida, Swaps de Crédito e Debêntures. Foi possível comparar as diferentes curvas e decidir, em cada caso analisado, qual a melhor alternativa para se tomar o risco de crédito da empresa, via Títulos de Dívida, Debêntures ou Swaps de Crédito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We investigate whether and how bank complexity affects performance and systemic risk. We base the analysis on a complexity measure that captures diversification and diversity, controlling for size and other bank characteristics. We find that more complex banks exhibit a higher profitability, lower risk, and higher market share. Moreover, we show an inversely U-shaped relation between bank complexity and banks’ sensitivity to systemic shocks. The evidence challenges the view that higher bank complexity is per se bad and is consistent with theoretical models that show that diversity in the banking system is critical for financial stability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using a unique dataset on Brazilian nominal and real yield curves combined with daily survey forecasts of macroeconomic variables such as GDP growth, inflation, and exchange rate movements, we identify the effect of surprises to the Brazilian interbank target rate on expected future nominal and real short rates, term premia, and inflation expectations. We find that positive surprises to target rates lead to higher expected nominal and real interest rates and reduced nominal and inflation term premia. We also find a strongly positive relation between both real and nominal term premia and measures of dispersion in survey forecasts. Uncertainty about future exchange rates is a particularly important driver of variations in Brazilian term premia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Organizations are Complex systems. A conceptual model of the enterprise is needed that is: coherent the distinguished aspect models constitute a logical and truly integral comprehensive all relevant issues are covered consistent the aspect models are free from contradictions or irregularities concise no superfluous matters are contained in it essential it shows only the essence of the enterprise, i.e., the model abstracts from all realization and implementation issues. The world is in great need for transparency about the operation of all the systems we daily work with, ranging from the domestic appliances to the big societal institutions. In this context the field of enterprise ontology has emerged with the aim to create models that help to understand the essence of the construction and operation of complete systems; more specifically, of enterprises. Enterprise ontology arises in the way to look through the distracting and confusing appearance of an enterprise right into its deep kernel. This, from the perspective of the system designer gives him the tools needed to design a successful system in a way that’s reflects the desires and needs of the workers of the enterprise. This project’s context is the use of DEMO (Design and Engineering Methodology for Organizations) for (re)designing or (re)engineering of an enterprise, namely a process of the construction department of a city hall, the lack of a well-founded theory about the construction and operation of this processes that was the motivation behind this work. The purpose of studying applying the DEMO theory and method was to optimize the process, automating it as much as possible, while reducing paper and time spent between tasks and provide a better service to the citizens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Quadratic Minimum Spanning Tree Problem (QMST) is a version of the Minimum Spanning Tree Problem in which, besides the traditional linear costs, there is a quadratic structure of costs. This quadratic structure models interaction effects between pairs of edges. Linear and quadratic costs are added up to constitute the total cost of the spanning tree, which must be minimized. When these interactions are restricted to adjacent edges, the problem is named Adjacent Only Quadratic Minimum Spanning Tree (AQMST). AQMST and QMST are NP-hard problems that model several problems of transport and distribution networks design. In general, AQMST arises as a more suitable model for real problems. Although, in literature, linear and quadratic costs are added, in real applications, they may be conflicting. In this case, it may be interesting to consider these costs separately. In this sense, Multiobjective Optimization provides a more realistic model for QMST and AQMST. A review of the state-of-the-art, so far, was not able to find papers regarding these problems under a biobjective point of view. Thus, the objective of this Thesis is the development of exact and heuristic algorithms for the Biobjective Adjacent Only Quadratic Spanning Tree Problem (bi-AQST). In order to do so, as theoretical foundation, other NP-hard problems directly related to bi-AQST are discussed: the QMST and AQMST problems. Bracktracking and branch-and-bound exact algorithms are proposed to the target problem of this investigation. The heuristic algorithms developed are: Pareto Local Search, Tabu Search with ejection chain, Transgenetic Algorithm, NSGA-II and a hybridization of the two last-mentioned proposals called NSTA. The proposed algorithms are compared to each other through performance analysis regarding computational experiments with instances adapted from the QMST literature. With regard to exact algorithms, the analysis considers, in particular, the execution time. In case of the heuristic algorithms, besides execution time, the quality of the generated approximation sets is evaluated. Quality indicators are used to assess such information. Appropriate statistical tools are used to measure the performance of exact and heuristic algorithms. Considering the set of instances adopted as well as the criteria of execution time and quality of the generated approximation set, the experiments showed that the Tabu Search with ejection chain approach obtained the best results and the transgenetic algorithm ranked second. The PLS algorithm obtained good quality solutions, but at a very high computational time compared to the other (meta)heuristics, getting the third place. NSTA and NSGA-II algorithms got the last positions

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The separation methods are reduced applications as a result of the operational costs, the low output and the long time to separate the uids. But, these treatment methods are important because of the need for extraction of unwanted contaminants in the oil production. The water and the concentration of oil in water should be minimal (around 40 to 20 ppm) in order to take it to the sea. Because of the need of primary treatment, the objective of this project is to study and implement algorithms for identification of polynomial NARX (Nonlinear Auto-Regressive with Exogenous Input) models in closed loop, implement a structural identification, and compare strategies using PI control and updated on-line NARX predictive models on a combination of three-phase separator in series with three hydro cyclones batteries. The main goal of this project is to: obtain an optimized process of phase separation that will regulate the system, even in the presence of oil gushes; Show that it is possible to get optimized tunings for controllers analyzing the mesh as a whole, and evaluate and compare the strategies of PI and predictive control applied to the process. To accomplish these goals a simulator was used to represent the three phase separator and hydro cyclones. Algorithms were developed for system identification (NARX) using RLS(Recursive Least Square), along with methods for structure models detection. Predictive Control Algorithms were also implemented with NARX model updated on-line, and optimization algorithms using PSO (Particle Swarm Optimization). This project ends with a comparison of results obtained from the use of PI and predictive controllers (both with optimal state through the algorithm of cloud particles) in the simulated system. Thus, concluding that the performed optimizations make the system less sensitive to external perturbations and when optimized, the two controllers show similar results with the assessment of predictive control somewhat less sensitive to disturbances

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Genome sequencing efforts are providing us with complete genetic blueprints for hundreds of organisms. We are now faced with assigning, understanding, and modifying the functions of proteins encoded by these genomes. DBMODELING is a relational database of annotated comparative protein structure models and their metabolic pathway characterization, when identified. This procedure was applied to complete genomes such as Mycobacteritum tuberculosis and Xylella fastidiosa. The main interest in the study of metabolic pathways is that some of these pathways are not present in humans, which makes them selective targets for drug design, decreasing the impact of drugs in humans. In the database, there are currently 1116 proteins from two genomes. It can be accessed by any researcher at http://www.biocristalografia.df.ibilce.unesp.br/tools/. This project confirms that homology modeling is a useful tool in structural bioinformatics and that it can be very valuable in annotating genome sequence information, contributing to structural and functional genomics, and analyzing protein-ligand docking.