14 resultados para Distributed Order Differential Equation
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
This work adds to Lucas (2000) by providing analytical solutions to two problems that are solved only numerically by the author. The first part uses a theorem in control theory (Arrow' s sufficiency theorem) to provide sufficiency conditions to characterize the optimum in a shopping-time problem where the value function need not be concave. In the original paper the optimality of the first-order condition is characterized only by means of a numerical analysis. The second part of the paper provides a closed-form solution to the general-equilibrium expression of the welfare costs of inflation when the money demand is double logarithmic. This closed-form solution allows for the precise calculation of the difference between the general-equilibrium and Bailey's partial-equilibrium estimates of the welfare losses due to inflation. Again, in Lucas's original paper, the solution to the general-equilibrium-case underlying nonlinear differential equation is done only numerically, and the posterior assertion that the general-equilibrium welfare figures cannot be distinguished from those derived using Bailey's formula rely only on numerical simulations as well.
Resumo:
Quando as empresas decidem se devem ou não investir em determinado projeto de investimentos a longo prazo (horizonte de 5 a 10 anos), algumas metodologias alternativas ao Fluxo de Caixa Descontado (FCD) podem se tornar úteis tanto para confirmar a viabilidade do negócio como para indicar o melhor momento para iniciar o Empreendimento. As análises que levam em conta a incerteza dos fluxos de caixa futuros e flexibilidade na data de início do projeto podem ser construídos com a abordagem estocástica, usando metodologias como a solução de equações diferenciais que descrevem o movimento browniano. Sob determinadas condições, as oportunidades de investimentos em projetos podem ser tratados como se fossem opções reais de compra, sem data de vencimento, como no modelo proposto por McDonald-Siegel (1986), para a tomada de decisões e momento ótimo para o investimento. Este trabalho analisa a viabilidade de investimentos no mercado de telecomunicações usando modelos não determinísticos, onde a variável mais relevante é a dispersão dos retornos, ou seja, que a variância representa o risco associado a determinado empreendimento.
Resumo:
We provide in this paper a closed fonn for the Welfare Cost of Inflation which we prove to be closer than Bailey's expression to the correct solution of the corresponding non-separable differential equation. Next. we extend this approach to ao economy with interest-bearing money, once again presenting a better appoximation than the one given by Bailey's approach. Fmally, empirical estimates for Brazil are presented.
Resumo:
Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.
Resumo:
We provide in this paper a closed fonn for the Welfare Cost of Inflation which we prove to be closer than Bailey's expression to the correct solution of the corresponding non-separable differential equation. Next, we extend this approach to an economy with interest-bearing money, once again presenting a better appoximation than the one given by Bailey's approach. Finally, empirical estimates for Brazil are presented.
Resumo:
Multivariate Affine term structure models have been increasingly used for pricing derivatives in fixed income markets. In these models, uncertainty of the term structure is driven by a state vector, while the short rate is an affine function of this vector. The model is characterized by a specific form for the stochastic differential equation (SDE) for the evolution of the state vector. This SDE presents restrictions on its drift term which rule out arbitrages in the market. In this paper we solve the following inverse problem: Suppose the term structure of interest rates is modeled by a linear combination of Legendre polynomials with random coefficients. Is there any SDE for these coefficients which rules out arbitrages? This problem is of particular empirical interest because the Legendre model is an example of factor model with clear interpretation for each factor, in which regards movements of the term structure. Moreover, the Affine structure of the Legendre model implies knowledge of its conditional characteristic function. From the econometric perspective, we propose arbitrage-free Legendre models to describe the evolution of the term structure. From the pricing perspective, we follow Duffie et al. (2000) in exploring Legendre conditional characteristic functions to obtain a computational tractable method to price fixed income derivatives. Closing the article, the empirical section presents precise evidence on the reward of implementing arbitrage-free parametric term structure models: The ability of obtaining a good approximation for the state vector by simply using cross sectional data.
Resumo:
Trabalho apresentado no Congresso Nacional de Matemática Aplicada à Indústria, 18 a 21 de novembro de 2014, Caldas Novas - Goiás
Resumo:
A contractive method for computing stationary solutions of intertemporal equilibrium models is provide. The method is is implemented using a contraction mapping derived from the first-order conditions. The deterministic dynamic programming problem is used to illustrate the method. Some numerical examples are performed.
Resumo:
O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.
Resumo:
Pair trading is an old and well-known technique among traders. In this paper, we discuss an important element not commonly debated in Brazil: the cointegration between pairs, which would guarantee the spread stability. We run the Dickey-Fuller test to check cointegration, and then compare the results with non-cointegrated pairs. We found that the Sharpe ratio of cointegrated pairs is greater than the non-cointegrated. We also use the Ornstein-Uhlenbeck equation in order to calculate the half-life of the pairs. Again, this improves their performance. Last, we use the leverage suggested by Kelly Formula, once again improving the results.
Resumo:
In this paper we study the dynamic hedging problem using three different utility specifications: stochastic differential utility, terminal wealth utility, and we propose a particular utility transformation connecting both previous approaches. In all cases, we assume Markovian prices. Stochastic differential utility, SDU, impacts the pure hedging demand ambiguously, but decreases the pure speculative demand, because risk aversion increases. We also show that consumption decision is, in some sense, independent of hedging decision. With terminal wealth utility, we derive a general and compact hedging formula, which nests as special all cases studied in Duffie and Jackson (1990). We then show how to obtain their formulas. With the third approach we find a compact formula for hedging, which makes the second-type utility framework a particular case, and show that the pure hedging demand is not impacted by this specification. In addition, with CRRA- and CARA-type utilities, the risk aversion increases and, consequently the pure speculative demand decreases. If futures price are martingales, then the transformation plays no role in determining the hedging allocation. We also derive the relevant Bellman equation for each case, using semigroup techniques.
Resumo:
Modelos de tomada de decisão necessitam refletir os aspectos da psi- cologia humana. Com este objetivo, este trabalho é baseado na Sparse Distributed Memory (SDM), um modelo psicologicamente e neuro- cientificamente plausível da memória humana, publicado por Pentti Kanerva, em 1988. O modelo de Kanerva possui um ponto crítico: um item de memória aquém deste ponto é rapidamente encontrado, e items além do ponto crítico não o são. Kanerva calculou este ponto para um caso especial com um seleto conjunto de parâmetros (fixos). Neste trabalho estendemos o conhecimento deste ponto crítico, através de simulações computacionais, e analisamos o comportamento desta “Critical Distance” sob diferentes cenários: em diferentes dimensões; em diferentes números de items armazenados na memória; e em diferentes números de armazenamento do item. Também é derivada uma função que, quando minimizada, determina o valor da “Critical Distance” de acordo com o estado da memória. Um objetivo secundário do trabalho é apresentar a SDM de forma simples e intuitiva para que pesquisadores de outras áreas possam imaginar como ela pode ajudá-los a entender e a resolver seus problemas.
Resumo:
Trabalho apresentado no 37th Conference on Stochastic Processes and their Applications - July 28 - August 01, 2014 -Universidad de Buenos Aires