54 resultados para Variable pricing model
Resumo:
No contexto do Capital Asset Pricing Model (CAPM), este trabalho investiga a significância da alavancagem financeira na construção do risco sistemático. Testamos com dados brasileiros o procedimento de desalavancagem e realavancagem do beta comumente realizado por analistas financeiros para a construção do custo de capital próprio de empresas não negociadas em bolsa de valores. Os resultados apontam que a inclusão do tax shield na fórmula de desalavancagem/realavancagem e a utilização de valores de mercado produzem resultados mais robustos, ao passo que as divisões por setores possuem pouca capacidade como segmentadores de classe de risco sistemático.
Resumo:
As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.
Resumo:
Peer-to-peer markets are highly uncertain environments due to the constant presence of shocks. As a consequence, sellers have to constantly adjust to these shocks. Dynamic Pricing is hard, especially for non-professional sellers. We study it in an accommodation rental marketplace, Airbnb. With scraped data from its website, we: 1) describe pricing patterns consistent with learning; 2) estimate a demand model and use it to simulate a dynamic pricing model. We simulate it under three scenarios: a) with learning; b) without learning; c) with full information. We have found that information is an important feature concerning rental markets. Furthermore, we have found that learning is important for hosts to improve their profits.
Resumo:
Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.
Resumo:
Parametric term structure models have been successfully applied to innumerous problems in fixed income markets, including pricing, hedging, managing risk, as well as studying monetary policy implications. On their turn, dynamic term structure models, equipped with stronger economic structure, have been mainly adopted to price derivatives and explain empirical stylized facts. In this paper, we combine flavors of those two classes of models to test if no-arbitrage affects forecasting. We construct cross section (allowing arbitrages) and arbitrage-free versions of a parametric polynomial model to analyze how well they predict out-of-sample interest rates. Based on U.S. Treasury yield data, we find that no-arbitrage restrictions significantly improve forecasts. Arbitrage-free versions achieve overall smaller biases and Root Mean Square Errors for most maturities and forecasting horizons. Furthermore, a decomposition of forecasts into forward-rates and holding return premia indicates that the superior performance of no-arbitrage versions is due to a better identification of bond risk premium.
Resumo:
Estimating the parameters of the instantaneous spot interest rate process is of crucial importance for pricing fixed income derivative securities. This paper presents an estimation for the parameters of the Gaussian interest rate model for pricing fixed income derivatives based on the term structure of volatility. We estimate the term structure of volatility for US treasury rates for the period 1983 - 1995, based on a history of yield curves. We estimate both conditional and first differences term structures of volatility and subsequently estimate the implied parameters of the Gaussian model with non-linear least squares estimation. Results for bond options illustrate the effects of differing parameters in pricing.
Resumo:
Verdelhan (2009) mostra que desejando-se explicar o comporta- mento do prêmio de risco nos mercados de títulos estrangeiros usando- se o modelo de formação externa de hábitos proposto por Campbell e Cochrane (1999) será necessário especi car o retorno livre de risco de equilíbrio de maneira pró-cíclica. Mostramos que esta especi cação só é possível sobre parâmetros de calibração implausíveis. Ainda no processo de calibração, para a maioria dos parâmetros razoáveis, a razão preço-consumo diverge. Entretanto, adotando a sugestão pro- posta por Verdelhan (2009) - de xar a função sensibilidade (st) no seu valor de steady-state durante a calibração e liberá-la apenas du- rante a simulação dos dados para se garantir taxas livre de risco pró- cíclicas - conseguimos encontrar um valor nito e bem comportado para a razão preço-consumo de equilíbrio e replicar o foward premium anom- aly. Desconsiderando possíveis inconsistências deste procedimento, so- bre retornos livres de risco pró-cíclicos, conforme sugerido por Wachter (2006), o modelo utilizado gera curvas de yields reais decrescentes na maturidade, independentemente do estado da economia - resultado que se opõe à literatura subjacente e aos dados reais sobre yields.
Resumo:
A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.
Resumo:
Este trabalho busca, através dos princípios de Finanças Corporativas e de Apreçamento de Ativos, mensurar o impacto do nível de liquidez das companhias na expectativa de retorno das ações no mercado acionário brasileiro. O pressuposto básico dessa relação é que a posição de caixa representa um tipo de risco não capturado por outras variáveis. Para mensurar esse risco, será utilizada a modelagem de fatores para apreçamento de ativos. O modelo básico utilizado será o de três fatores de Fama e French, adaptado para a inclusão da variável caixa. A partir da base de dados, se tentará estimar a sensibilidade do retorno esperado das ações brasileiras ao fator caixa.
Resumo:
Verdelhan (2009) shows that if one is to explain the foreign exchange forward premium behavior using Campbell and Cochrane (1999)’s habit formation model one must specify it in such a way to generate pro-cyclical short term risk free rates. At the calibration procedure, we show that this is only possible in Campbell and Cochrane’s framework under implausible parameters specifications given that the price-consumption ratio diverges in almost all parameters sets. We, then, adopt Verdelhan’s shortcut of fixing the sensivity function λ(st) at its steady state level to attain a finite value for the price-consumption ratio and release it in the simulation stage to ensure pro-cyclical risk free rates. Beyond the potential inconsistencies that such procedure may generate, as suggested by Wachter (2006), with procyclical risk free rates the model generates a downward sloped real yield curve, which is at odds with the data.
Resumo:
The real effects of an imperfectly credible disinflation depend critically on the extent of price rigidity. Therefore, the study of how policymakers’ credibility affects the outcome of an announced disinflation should not be dissociated from the analysis of the determinants of the frequency of price adjustments. In this paper we examine how credibility affects the outcome of a disinflation in a model with endogenous timedependent pricing rules. Both the initial degree of price ridigity, calculated optimally, and, more notably, the changes in contract length during disinflation play an important role in the explanation of the effects of imperfect credibility. We initially evaluate the costs of disinflation in a setup where credibility is exogenous, and then allow agents to use Bayes rule to update beliefs about the “type” of monetary authority that they face. In both cases, the interaction between the endogeneity of time-dependent rules and imperfect credibility increases the output costs of disinflation, but the pattern of the output path is more realistic in the case with learning.
Resumo:
: In a model of a nancial market with an atomless continuum of assets, we give a precise and rigorous meaning to the intuitive idea of a \well-diversi ed" portfolio and to a notion of \exact arbitrage". We show this notion to be necessary and su cient for an APT pricing formula to hold, to be strictly weaker than the more conventional notion of \asymptotic arbitrage", and to have novel implications for the continuity of the cost functional as well as for various versions of APT asset pricing. We further justify the idealized measure-theoretic setting in terms of a pricing formula based on \essential" risk, one of the three components of a tri-variate decomposition of an asset's rate of return, and based on a speci c index portfolio constructed from endogenously extracted factors and factor loadings. Our choice of factors is also shown to satisfy an optimality property that the rst m factors always provide the best approximation. We illustrate how the concepts and results translate to markets with a large but nite number of assets, and relate to previous work.
Resumo:
We develop a model of comparative advantage with monopolistic competition, that incorporates heterogeneous firms and endogenous mark-ups. We analyse how these features vary across countries with different factor endowments, and across markets of different size. In this model we can obtain trade gains via two channels. First, when we open the economy, most productive firms start to export their product, then, they demand more producing factors and wages rises, thus, those firms that are less productive will be forced to stop to produce. Second channel is via endogenous mark-ups, when we open the economy, the competition gets ``tougher'', then, mark-ups falls, thus, those firms that are less productive will stop to produce. We also show that comparative advantage works as a ``third channel'' of trade gains, because, all trade gains results are magnified in comparative advantage industry of both countries. We also make a numerical exercise to see how endogenous variables of the model vary when trade costs fall.
Resumo:
This paper discusses distribution and the historical phases of capitalism. It assumes that technical progress and growth are taking place, and, given that, its question is on the functional distribution of income between labor and capital, having as reference classical theory of distribution and Marx’s falling tendency of the rate of profit. Based on the historical experience, it, first, inverts the model, making the rate of profit as the constant variable in the long run and the wage rate, as the residuum; second, it distinguishes three types of technical progress (capital-saving, neutral and capital-using) and applies it to the history of capitalism, having the UK and France as reference. Given these three types of technical progress, it distinguishes four phases of capitalist growth, where only the second is consistent with Marx prediction. The last phase, after World War II, should be, in principle, capital-saving, consistent with growth of wages above productivity. Instead, since the 1970s wages were kept stagnant in rich countries because of, first, the fact that the Information and Communication Technology Revolution proved to be highly capital using, opening room for a new wage of substitution of capital for labor; second, the new competition coming from developing countries; third, the emergence of the technobureaucratic or professional class; and, fourth, the new power of the neoliberal class coalition associating rentier capitalists and financiers
Resumo:
We develop and empirically test a continuous time equilibrium model for the pricing of oil futures. The model provides a link between no-arbitrage models and expectation oriented models. It highlights the role of inventories for the identification of different pricing regimes. In an empirical study the hedging performance of our model is compared with five other one- and two-factor pricing models. The hedging problem considered is related to Metallgesellschaft´s strategy to hedge long-term forward commitments with short-term futures. The results show that the downside risk distribution of our inventory based model stochastically dominates those of the other models.