37 resultados para Value-based pricing
Resumo:
In this paper we revisit the relationship between the equity and the forward premium puzzles. We construct return-based stochastic discount factors under very mild assumptions and check whether they price correctly the equity and the foreign currency risk premia. We avoid log-linearizations by using moments restrictions associated with euler equations to test the capacity of our return-based stochastic discount factors to price returns on the relevant assets. Our main finding is that a pricing kernel constructed only using information on American domestic assets accounts for both domestic and international stylized facts that escape consumption based models. In particular, we fail to reject the null hypothesis that the foreign currency risk premium has zero price when the instrument is the own current value of the forward premium.
Resumo:
Esta dissertação tem como objetivo demonstrar a validade do método de análise da avaliação das oportunidades de investimentos que utiliza a Teoria das Opções Reais. De forma a demonstrar a aplicabilidade desta metodologia de avaliação, será exemplificado, com base no modelo das opções reais, uma oportunidade de investimento no setor de seguros. As opções reais fecham a brecha entre as finanças e o planejamento estratégico introduzindo um meio para incorporar o impacto da incerteza implícita nas oportunidades de investimento, e ao mesmo tempo considerando como as ações gerenciais podem limitar as possíveis perdas ou capitalizar os possíveis ganhos nos projetos de investimento. Este processo de avaliação não direciona somente os administradores a focar suas atenções nas diferentes oportunidades e alternativas estratégicas, mas fornece também uma metodologia sistemática para medir a influencia das ações contingentes sobre o próprio risco e valor do projeto. Os métodos tradicionais de avaliação dos investimentos assumem que os administradores adotem um comportamento passivo à implementação dos projetos, considerando somente o valor dos fluxos de caixa esperados dos mesmos. A partir da teoria de precificação das opções financeiras, as opções reais expandem o valor global do projeto incorporando os potenciais ganhos e limitando as possíveis perdas. O modelo de opções reais permite aos administradores alavancar o valor do acionista em um ambiente de negócios dinâmico considerando a possibilidade de uma gestão ótima das opções estratégicas e operacionais existentes. Tipicamente, o ativo subjacente é o valor bruto dos fluxos de caixa esperados do projeto, mas considerando a incerteza, o valor total do projeto deve considerar o valor implícito das opções reais presentes nas oportunidades de investimento. A flexibilidade gerencial, que permite adaptar as decisões futuras as mudanças inesperadas do mercado, representa um fonte crucial de valor agregado em um ambiente dinâmico. Muitas opções reais presentes nos projetos e que interagem entre si, podem ocorrer em paralelo ou seqüencialmente, de maneira que o valor combinado destas opções seja diferente da simples soma algébrica das opções individuais.
Resumo:
This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.
Resumo:
This paper is concerned with evaluating value at risk estimates. It is well known that using only binary variables to do this sacrifices too much information. However, most of the specification tests (also called backtests) avaliable in the literature, such as Christoffersen (1998) and Engle and Maganelli (2004) are based on such variables. In this paper we propose a new backtest that does not realy solely on binary variable. It is show that the new backtest provides a sufficiant condition to assess the performance of a quantile model whereas the existing ones do not. The proposed methodology allows us to identify periods of an increased risk exposure based on a quantile regression model (Koenker & Xiao, 2002). Our theorical findings are corroborated through a monte Carlo simulation and an empirical exercise with daily S&P500 time series.
Resumo:
: In a model of a nancial market with an atomless continuum of assets, we give a precise and rigorous meaning to the intuitive idea of a \well-diversi ed" portfolio and to a notion of \exact arbitrage". We show this notion to be necessary and su cient for an APT pricing formula to hold, to be strictly weaker than the more conventional notion of \asymptotic arbitrage", and to have novel implications for the continuity of the cost functional as well as for various versions of APT asset pricing. We further justify the idealized measure-theoretic setting in terms of a pricing formula based on \essential" risk, one of the three components of a tri-variate decomposition of an asset's rate of return, and based on a speci c index portfolio constructed from endogenously extracted factors and factor loadings. Our choice of factors is also shown to satisfy an optimality property that the rst m factors always provide the best approximation. We illustrate how the concepts and results translate to markets with a large but nite number of assets, and relate to previous work.
Resumo:
This article is motivated by the prominence of one-sided S,s rules in the literature and by the unrealistic strict conditions necessary for their optimality. It aims to assess whether one-sided pricing rules could be an adequate individual rule for macroeconomic models, despite its suboptimality. It aims to answer two questions. First, since agents are not fully rational, is it plausible that they use such a non-optimal rule? Second, even if the agents adopt optimal rules, is the economist committing a serious mistake by assuming that agents use one-sided Ss rules? Using parameters based on real economy data, we found that since the additional cost involved in adopting the simpler rule is relatively small, it is plausible that one-sided rules are used in practice. We also found that suboptimal one-sided rules and optimal two-sided rules are in practice similar, since one of the bounds is not reached very often. We concluded that the macroeconomic effects when one-sided rules are suboptimal are similar to the results obtained under two-sided optimal rules, when they are close to each other. However, this is true only when one-sided rules are used in the context where they are not optimal.
Resumo:
Nesse trabalho desenvolvemos uma estratégia para o apreçamento de opções de recompra Embutidas . Esse tipo específico de opção está presente em um grande número de debêntures no mercado brasileiro. Em função deste mercado apresentar um número reduzido de ativos, o apreçamento destas opções se faz necessário para que tenhamos condições de ampliar a massa de ativos disponíveis para a análise. Como passo intermediário, é preciso determinar quando é interessante para o emissor efetuar o resgate antecipado da debênture. Para este m, propomos uma metodologia para a estimação da estrutura a termo da taxa de juros do mercado de debêntures com base no modelo de Nelson-Siegel.
Resumo:
Em redes de inovação baseadas em trocas de informação, o agente orquestrador se apropria das informações dos atores periféricos, gera inovação e distribui em forma de valor agregado. É sua função promover a estabilidade na rede fazendo com que a mesma tenha taxas não negativas de crescimento. Nos mercados de análise de crédito e fraude, por exemplo, ou bureaus funcionam como agentes orquestradores, concentrando as informações históricas da população que são provenientes de seus clientes e fornecendo produtos que auxiliam na tomada de decisão. Assumindo todas as empresas do ecossistema como agentes racionais, a teoria dos jogos se torna uma ferramenta apropriada para o estudo da precificação dos produtos como mecanismo de promoção da estabilidade da rede. Este trabalho busca identificar a relação de diferentes estruturas de precificação promovidas pelo agente orquestrador com a estabilidade e eficiência da rede de inovação. Uma vez que o poder da rede se dá pela força conjunta de seus membros, a inovação por esta gerada varia de acordo com a decisão isolada de cada agente periférico de contratar o agente orquestrador ao preço por ele estipulado. Através da definição de um jogo teórico simplificado onde diferentes agentes decidem conectar-se ou não à rede nas diferentes estruturas de preços estipuladas pelo agente orquestrador, o estudo analisa as condições de equilíbrio conclui que o equilíbrio de Nash implica em um cenário de estabilidade da rede. Uma conclusão é que, para maximizar o poder de inovação da rede, o preço a ser pago por cada agente para fazer uso da rede deve ser diretamente proporcional ao benefício financeiro auferido pela inovação gerada pela mesma. O estudo apresenta ainda uma simulação computacional de um mercado fictício para demonstração numérica dos efeitos observados. Através das conclusões obtidas, o trabalho cobre uma lacuna da literatura de redes de inovação com agentes orquestradores monopolistas em termos de precificação do uso da rede, servindo de subsídio de tomadores de decisão quando da oferta ou demanda dos serviços da rede.
Resumo:
This paper proposes a two-step procedure to back out the conditional alpha of a given stock using high-frequency data. We rst estimate the realized factor loadings of the stocks, and then retrieve their conditional alphas by estimating the conditional expectation of their risk-adjusted returns. We start with the underlying continuous-time stochastic process that governs the dynamics of every stock price and then derive the conditions under which we may consistently estimate the daily factor loadings and the resulting conditional alphas. We also contribute empiri-cally to the conditional CAPM literature by examining the main drivers of the conditional alphas of the S&P 100 index constituents from January 2001 to December 2008. In addition, to con rm whether these conditional alphas indeed relate to pricing errors, we assess the performance of both cross-sectional and time-series momentum strategies based on the conditional alpha estimates. The ndings are very promising in that these strategies not only seem to perform pretty well both in absolute and relative terms, but also exhibit virtually no systematic exposure to the usual risk factors (namely, market, size, value and momentum portfolios).
Resumo:
This paper constructs a unit root test baseei on partially adaptive estimation, which is shown to be robust against non-Gaussian innovations. We show that the limiting distribution of the t-statistic is a convex combination of standard normal and DF distribution. Convergence to the DF distribution is obtaineel when the innovations are Gaussian, implying that the traditional ADF test is a special case of the proposed testo Monte Carlo Experiments indicate that, if innovation has heavy tail distribution or are contaminated by outliers, then the proposed test is more powerful than the traditional ADF testo Nominal interest rates (different maturities) are shown to be stationary according to the robust test but not stationary according to the nonrobust ADF testo This result seems to suggest that the failure of rejecting the null of unit root in nominal interest rate may be due to the use of estimation and hypothesis testing procedures that do not consider the absence of Gaussianity in the data.Our results validate practical restrictions on the behavior of the nominal interest rate imposed by CCAPM, optimal monetary policy and option pricing models.
Resumo:
We develop and empirically test a continuous time equilibrium model for the pricing of oil futures. The model provides a link between no-arbitrage models and expectation oriented models. It highlights the role of inventories for the identification of different pricing regimes. In an empirical study the hedging performance of our model is compared with five other one- and two-factor pricing models. The hedging problem considered is related to Metallgesellschaft´s strategy to hedge long-term forward commitments with short-term futures. The results show that the downside risk distribution of our inventory based model stochastically dominates those of the other models.
Resumo:
Wilson [16] introduced a general methodology to deal with monopolistic pricing in situations where customers have private information on their tastes (‘types’). It is based on the demand profile of customers: For each nonlinear tariff by the monopolist the demand at a given level of product (or quality) is the measure of customers’ types whose marginal utility is at least the marginal tariff (‘price’). When the customers’ marginal utility has a natural ordering (i.e., the Spence and Mirrlees Condition), such demand profile is very easy to perform. In this paper we will present a particular model with one-dimensional type where the Spence and Mirrlees condition (SMC) fails and the demand profile approach results in a suboptimal solution for the monopolist. Moreover, we will suggest a generalization of the demand profile procedure that improves the monopolist’s profit when the SMC does not hold.
Resumo:
O mercado brasileiro de Telecomunicações e Tecnologia da Informação (TIC) tem importância significativa para o desenvolvimento do Brasil, haja vista a evolução do mercado de telefonia móvel, que cresceu 600% nos últimos dez anos. A indústria de telecomunicações, que representa 4,7 % do PIB brasileiro (TELEBRASIL, 2013), passou a ter uma nova dinâmica a partir da elaboração da Lei Geral de Telecomunicações em 1997 e, posteriormente, com a privatização do setor. Esta rápida transformação da cadeia de valor do setor foi também impulsionada pela evolução das tecnologias e de novas arquiteturas de redes. Ademais, a utilização de tecnologias digitais, como aplicativos/APPs e a própria internet, tornou a cadeia de telecomunicações mais complexa, possibilitando o surgimento de novos atores e o desenvolvimento de novos serviços, modelos de negócios e precificação (SCHAPIRO e VARIAN, 2003). Este estudo tem como objetivo analisar os direcionadores e barreiras na adoção de novos modelos de precificação de serviços no mercado brasileiro de telecomunicações, considerando a transformação e evolução do setor. O estudo foi elaborado por meio de uma estratégia de pesquisa qualitativo-exploratória e construtivista baseando-se na abordagem Multinível (POZZEBON e DINIZ, 2012), que trabalha o contexto, o processo e as interações entre os grupos sociais relevantes. A partir desta análise, foi possível compreender os critérios, direcionadores e barreiras no processo de adoção de novos modelos de precificação, as quais destacam-se as demandas dos usuários, a alta concorrência e a necessidade de aumento do retorno do investimento como os direcionadores mais relevantes, enquanto que a qualidade das redes, a falta de sistemas, a situação financeira das operadoras, a complexidade da regulamentação e o surgimento de grupos sociais distintos dentro da empresa são apontados como as barreiras mais críticas neste processo. Dentro deste contexto, os modelos de precificação emergentes abrangem o empacotamento de serviços, ofertas por tempo limitado, modelos de patrocínio/gratuidade, em conjunto com exploração de novas áreas de negócios. Este estudo proporciona uma contribuição prática e acadêmica na medida em que permite uma melhor compreensão do dinamismo do mercado e suporte para as áreas de marketing estratégico e tático das operadoras, bem como na formulação de políticas e regulamentação do setor.
Resumo:
In June 2014 Brazil hosted the FIFA World Cup and in August 2016 Rio de Janeiro hosts the Summer Olympics. These two seminal sporting events will draw tens of thousands of air travelers through Brazil’s airports, airports that are currently in the midst of a national modernization program to address years of infrastructure neglect and insufficient capacity. Raising Brazil’s major airports up to the standards air travelers experience at major airports elsewhere in the world is more than just a case of building or remodeling facilities, processes must also be examined and reworked to enhance traveler experience and satisfaction. This research paper examines the key interface between airports and airline passengers—airport check-in procedures—according to how much value and waste there is associated with them. In particular, the paper makes use of a value stream mapping construct for services proposed by Martins, Cantanhede, and Jardim (2010). The uniqueness of this construct is that it attributes each activity with a certain percentage and magnitude of value or waste which can then be ordered and prioritized for improvement. Working against a fairly commonly expressed notion in Brazil that Brazil’s airports are inferior to the airports of economically advanced countries, the paper examines Rio’s two major airports, Galeão International and Santos Dumont in comparison to Washington D.C.’s Washington National and Dulles International airports. The paper seeks to accomplish three goals: - Determine whether there are differences in airport passenger check-in procedures between U.S. and Brazilian airports in terms of passenger value - Present options for Brazilian government or private sector authorities to consider adopting or implementing at Brazilian airports to maximize passenger value - Validate the Martins et al. construct for use in evaluating the airport check-in procedures Observations and analysis proved surprising in that all airports and service providers follow essentially the same check-in processes but execute them differently yet still result in similar overall performance in terms of value and waste. Although only a few activities are categorized as completely wasteful (and therefore removed in the revised value stream map of check-in activities), the weighting and categorization of individual activities according to their value (or waste) presents decision-makers a means to prioritize possible corrective actions. Various overall recommendations are presented based on this analysis. Most importantly, this paper demonstrates the viability of using the construct developed by Martins et al to examine airport operations, as well as its applicability to the study of other service industry processes.
Resumo:
Using a sequence of nested multivariate models that are VAR-based, we discuss different layers of restrictions imposed by present-value models (PVM hereafter) on the VAR in levels for series that are subject to present-value restrictions. Our focus is novel - we are interested in the short-run restrictions entailed by PVMs (Vahid and Engle, 1993, 1997) and their implications for forecasting. Using a well-known database, kept by Robert Shiller, we implement a forecasting competition that imposes different layers of PVM restrictions. Our exhaustive investigation of several different multivariate models reveals that better forecasts can be achieved when restrictions are applied to the unrestricted VAR. Moreover, imposing short-run restrictions produces forecast winners 70% of the time for the target variables of PVMs and 63.33% of the time when all variables in the system are considered.