891 resultados para Equilibrium Option Pricing
Resumo:
We present two alternative definitions of Nash equilibrium for two person games in the presence af uncertainty, in the sense of Knight. We use the formalization of uncertainty due to Schmeidler and Gilboa. We show that, with one of the definitions, prudent behaviour (maxmin) can be obtained as an outcome even when it is not rationalizable in the usual sense. Most striking is that with the Same definition we break down backward induction in the twice repeated prisoner's dilemma. We also link these results with the Kreps-Milgrom-Roberts-Wilson explanation of cooperation in the finitely repeated prisoner's dilemma.
Resumo:
Kalai and Lebrer (93a, b) have recently show that for the case of infinitely repeated games, a coordination assumption on beliefs and optimal strategies ensures convergence to Nash equilibrium. In this paper, we show that for the case of repeated games with long (but finite) horizon, their condition does not imply approximate Nash equilibrium play. Recently Kalai and Lehrer (93a, b) proved that a coordination assumption on beliefs and optimal strategies, ensures that pIayers of an infinitely repeated game eventually pIay 'E-close" to an E-Nash equilibrium. Their coordination assumption requires that if players believes that certain set of outcomes have positive probability then it must be the case that this set of outcomes have, in fact, positive probability. This coordination assumption is called absolute continuity. For the case of finitely repeated games, the absolute continuity assumption is a quite innocuous assumption that just ensures that pIayers' can revise their priors by Bayes' Law. However, for the case of infinitely repeated games, the absolute continuity assumption is a stronger requirement because it also refers to events that can never be observed in finite time.
Resumo:
Radner (1968) proved the existence of a competitive equilibrium for differential information economies with finitely many states. We extend this result to economies with infinitely many states of nature.
Resumo:
A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.
Resumo:
Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.
Resumo:
O trabalho apresenta um modelo de competição duopolista, com firmas heterogêneas (custos marginais diferentes), produtos espacialmente diferenciados quanto a dimensão vertical e horizontal, e informação privada sobre as preferências por qualidade dos consumidores. Identifica-se que a assimetria de informação sobre a dimensão vertical e a diferença de custos exercem grande relevância sobre a decisão de apreçamento das firmas e sobre as estruturas de mercado de equilíbrio. Um resultado relevante decorrente desses dois aspectos é a existência de uma massa de consumidores que, em equilíbrio, pode demandar de qualquer uma das firmas, sendo essa decisão pautada sobre o real parâmetro de preferência por qualidade de cada consumidor. Observa-se também que quanto maior a heterogeneidade dos custos, maior é o poder de mercado da firma de menor custo.
Resumo:
O presente trabalho tem como objetivos explicar os retornos do índice da Bolsa de valores de São Paulo, o IBOVESPA, no período após a implantação do Plano Real, iniciando-se por janeiro de 1995 e tínanzando-se em agosto de 1998, através de variáveis macroeconômicas, utilizando-se do ferramental proposto pelo "Arbitrage Pricing Theory", considerando trabalhos realizados no mundo, bem como as especificidades do mercado brasileiro e divulgar a teoria, suas premissas e vantagens à comunidade e ao mercado, a fim de estimular sua utilização, através do uso de variáveis de fácil acesso aos analistas.
Resumo:
Utiliza a técnica de simulação para estimar a "eficiência" de se testar o modelo Capital Asset Pricing Model (CAPM) num mercado com características do mercado acionário paulista, marcado por elevado retorno e alta volatilidade.
Resumo:
Trata da explicação da teoria do APT, abarcando o estudo de suas fontes de referência, pressupostos, modelo matemático, testes empíricos e estudos de aplicação prática de suas medidas de risco. Ressalta os aportes da teoria ao estudo do risco de preços da Teoria Financeira, descrevendo os trabalhos que identificaram vantagens do APT em relação ao CAPM, relativas ao conteúdo econômico de sua equação de equilíbrio e compravaçãu empírica. Inclue um levantamento das críticas realizadas à teoria, destacando os argumentos de resposta fornecidos pelos defensores do APT. Também explica a: metccoloçias de estimativa e teste do modelo, ilustrando a forma em que são mensurados os fatores econórnicc, de risco de preços
Resumo:
Esta tese é composta por três artigos, nos quais são apresentadas extensões e aplicações da Teoria das Opções Reais, todas de interesse para formuladores de política econômica no Brasil. O primeiro faz uma análise original da questão da bioprospecção, ou a exploração da diversidade biológica para fins econômicos. Duas estruturas alternativas para o desenho do mecanismo de concessão, visando o uso sustentável da biodiversidade brasileira, são sugeridas: (i) um modelo de projetos de P&D com maturidade incerta, no qual a intensidade do processo de Poisson que governa o tempo de maturação é explicitamente dependente do nível da biodiversidade no local concedido; (ii) um modelo de Agente-Principal, onde o Estado delega o exercício da opção de investimento à empresa de pesquisa biotecnológica. O segundo artigo avança a analogia entre opções de venda (“put options”) e cotas de importação. Os parâmetros relevantes para apreçar as licenças são agora obtidos endogenamente, a partir da interação entre a firma importadora e os produtores domésticos. Por fim, no terceiro, é feita análise pioneira do mercado paralelo de títulos precatórios no Brasil. Um modelo para a valoração de tais títulos é construído e proposto, tendo por base o arcabouço institucional existente sobre o assunto, tanto no governo central, como nos estados e municípios.
Resumo:
This paper analyzes the stability of monetary regimes in an economy where fiat money is endogenously created by the government, information about its value is imperfect, and learning is decentralized. We show that monetary stability depends crucially on the speed of information transmission in the economy. Our model generates a dynamic on the acceptability of fiat money that resembles historical accounts of the rise and eventual collapse of overissued paper money. It also provides an explanation of the fact that, despite its obvious advantages, the widespread use of fiat money is only a recent development.
Resumo:
The real effects of an imperfectly credible disinflation depend critically on the extent of price rigidity. Therefore, the study of how policymakers’ credibility affects the outcome of an announced disinflation should not be dissociated from the analysis of the determinants of the frequency of price adjustments. In this paper we examine how credibility affects the outcome of a disinflation in a model with endogenous timedependent pricing rules. Both the initial degree of price ridigity, calculated optimally, and, more notably, the changes in contract length during disinflation play an important role in the explanation of the effects of imperfect credibility. We initially evaluate the costs of disinflation in a setup where credibility is exogenous, and then allow agents to use Bayes rule to update beliefs about the “type” of monetary authority that they face. In both cases, the interaction between the endogeneity of time-dependent rules and imperfect credibility increases the output costs of disinflation, but the pattern of the output path is more realistic in the case with learning.
Resumo:
: In a model of a nancial market with an atomless continuum of assets, we give a precise and rigorous meaning to the intuitive idea of a \well-diversi ed" portfolio and to a notion of \exact arbitrage". We show this notion to be necessary and su cient for an APT pricing formula to hold, to be strictly weaker than the more conventional notion of \asymptotic arbitrage", and to have novel implications for the continuity of the cost functional as well as for various versions of APT asset pricing. We further justify the idealized measure-theoretic setting in terms of a pricing formula based on \essential" risk, one of the three components of a tri-variate decomposition of an asset's rate of return, and based on a speci c index portfolio constructed from endogenously extracted factors and factor loadings. Our choice of factors is also shown to satisfy an optimality property that the rst m factors always provide the best approximation. We illustrate how the concepts and results translate to markets with a large but nite number of assets, and relate to previous work.
Resumo:
We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game.
Resumo:
This article is motivated by the prominence of one-sided S,s rules in the literature and by the unrealistic strict conditions necessary for their optimality. It aims to assess whether one-sided pricing rules could be an adequate individual rule for macroeconomic models, despite its suboptimality. It aims to answer two questions. First, since agents are not fully rational, is it plausible that they use such a non-optimal rule? Second, even if the agents adopt optimal rules, is the economist committing a serious mistake by assuming that agents use one-sided Ss rules? Using parameters based on real economy data, we found that since the additional cost involved in adopting the simpler rule is relatively small, it is plausible that one-sided rules are used in practice. We also found that suboptimal one-sided rules and optimal two-sided rules are in practice similar, since one of the bounds is not reached very often. We concluded that the macroeconomic effects when one-sided rules are suboptimal are similar to the results obtained under two-sided optimal rules, when they are close to each other. However, this is true only when one-sided rules are used in the context where they are not optimal.