954 resultados para convexity theorem


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proves the existence and uniqueness of a fixed-point for local contractions without assuming the family of contraction coefficients to be uniformly bounded away from 1. More importantly it shows how this fixed-point result can apply to study existence and uniqueness of solutions to some recursive equations that arise in economic dynamics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper argues that monetary models can and usually present the phenomenon of over-banking; that is, the market solution of the model presents a size of the banking sector which is higher than the social optima. Applying a two sector monetary model of capital accumulation in presence of a banking sector, which supplies liquidity services, it is shown that the rise of a tax that disincentives the acquisition of the banking service presents the following impacts on welfare. If the technology is the same among the sectors, the tax increases welfare; otherwise, steady-state utility increase if the banking sector is labor-intensive compared to the real sector. Additionally, it is proved that the elevation of inflation has the following impact on the economy's equilibrium: the share on the product of the banking sector increases; the product and the stock of capital increases or reduces whether the banking sector is capital-intensive or laborintensive; and, the steady-state utility reduces. The results were derived under a quite general set up - standard hypothesis regarding concavity of preference, convexity of technology, and normality of goods - were required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Automação e o processo de Robotização vêm, cada vem mais, se tornando pauta nas discussões de centenas de indústrias brasileiras, onde a tendência clara e identificada é a de investimentos expressivos na melhoria de processos e produtos, por intermédio dessas tecnologias; com foco, sempre que possível, na nacionalização de equipamentos. O presente trabalho tem como objetivo avaliar o modelo proposto por Paul Kennedy (1993) com relação à tendência de Automação e Robotização nas Indústrias Mundiais, analisando o estudo realizado diante de uma economia emergente como a brasileira. Para tanto, foram pesquisadas empresas no Brasil, em diferentes segmentos industriais, o estado da arte em termos de tecnologia de automação e robótica aplicada a processos industriais, e sugerido um modelo diferente do idealizado originalmente por Kennedy. A análise do autor se baseou no teorema que, na matemática discreta, chamamos de “law of the excluded middle”, ou seja, segundo Kennedy, o Brasil estaria vivendo hoje uma migração gradual das indústrias para os países ricos. O Brasil é um exemplo de país industrializado, de economia emergente, que investe intensamente em processos automatizados, mas que não é classificado dentro do grupo desses países ricos. Através da pesquisa realizada será apresentado um novo modelo, no qual países emergentes como o Brasil têm acesso à tecnologia de ponta em automação e robótica, aplicando a mesma em seus processos industriais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this paper is to propose a novel setup that allows estimating separately the welfare costs of the uncertainty stemming from business-cycle uctuations and from economic-growth variation, when the two types of shocks associated with them (respectively,transitory and permanent shocks) hit consumption simultaneously. Separating these welfare costs requires dealing with degenerate bivariate distributions. Levis Continuity Theorem and the Disintegration Theorem allow us to adequately de ne the one-dimensional limiting marginal distributions. Under Normality, we show that the parameters of the original marginal distributions are not afected, providing the means for calculating separately the welfare costs of business-cycle uctuations and of economic-growth variation. Our empirical results show that, if we consider only transitory shocks, the welfare cost of business cycles is much smaller than previously thought. Indeed, we found it to be negative - -0:03% of per-capita consumption! On the other hand, we found that the welfare cost of economic-growth variation is relatively large. Our estimate for reasonable preference-parameter values shows that it is 0:71% of consumption US$ 208:98 per person, per year.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estimar um modelo empírico para relacionar os gastos em publicidade com a receita das firmas, de forma a servir como ferramenta de tomada de decisão, para isso vamos fazer um estudo de caso da indústria de telecomunicações. A Indústria de comunicação (publicidade) no Brasil, segundo dados do IBGE de 2008, é responsável por 4% do PIB, gerando receitas da ordem 115 bilhões de reais. Com 113 mil empresas que geram 711 mil empregos, ocupam 866 mil pessoas e pagam 11,8 bilhões em salários e encargos. No entanto, a maioria dos gestores de marketing declara não ter instrumentos para medir o impacto de suas ações no resultado das empresas. O modelo empírico será estimado tendo como base dados mensais dos serviços de ligações de longa distância nacional da Embratel para o período de janeiro de 2009 até dezembro de 2011. As informações quase sempre não disponíveis, só puderam ser usadas devido ao compromisso de confidencialidade. A partir de técnicas de cointegração, foi calculada a elasticidade de longo prazo da receita em relação aos gastos com publicidade e ao preço, assim com as respectivas velocidades de ajustamento aos desvios de curto prazo. Os resultados sugerem que a receita responde positivamente às variações dos gastos em publicidade, embora o percentual seja relativamente baixo, através do teorema de Dorfman-Steiner conseguimos indicar que o ponto ótimo da relação entre gastos com publicidade e a receita seria de aproximadamente 20%, respeitadas as limitações do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents new indices for measuring the industry concentration. The indices proposed (C n ) are of a normative type because they embody (endogenous) weights matching the market shares of the individual firms to their Marshallian welfare shares. These indices belong to an enlarged class of the Performance Gradient Indexes introduced by Dansby&Willig(I979). The definition of Cn for the consumers allows a new interpretation for the Hirschman-Herfindahl index (H), which can be viewed as a normative index according to particular values of the demand parameters. For homogeneous product industries, Cn equates H for every market distribution if (and only if) the market demand is linear. Whenever the inverse demand curve is convex (concave), H underestimates( overestimates) the industry concentration measured by the normative indexo For these industries, H overestimates (underestimates) the concentration changes caused by market transfers among small firms if the inverse demand curve is convex(concave) and underestimates( overestimates) it when such tranfers benefit a large firm, according to the convexity (or the concavity) of the demand curve. For heterogeneous product industries, an explicit normative index is obtained with a market demand derived from a quasi-linear utilility function. Under symmetric preferences among the goods, the index Cn is always greater than or equal the H-index. Under asymmetric assumptions, discrepancies between the firms' market distribution and the differentiationj substitution distributions among the goods, increase the concentration but make room for some horizontal mergers do reduce it. In particular, a mean preserving spread of the differentiation(substitution) increases(decreases) the concentration only if the smaller firms' goods become more(less) differentiated(substitute) w.r.t. the other goods. One important consequence of these results is that the consumers are benefitted when the smaller firms are producing weak substitute goods, and the larger firms produce strong substitute goods or face demand curves weakly sensitive to their own prices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents results of a pricing system to compute the option adjusted spread ("DAS") of Eurobonds issued by Brazilian firms. The system computes the "DAS" over US treasury rates taktng imo account the embedded options present on these bonds. These options can be calls ("callable bond"), puts ("putable bond") or combinations ("callable and putable bond"). The pricing model takes into account the evolution of the term structure along time, is compatible with the observable market term structure and is able to compute risk measures such as duration and convexity, and pricing and hedging of options on these bonds. Examples show the ejJects of the embedded options on the spread and risk measures as well as the ejJects on the spread due to variations on the volatility parameters ofthe short rate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We construct a model in which a first mover decides on its location before it knows the identity of the second mover; joint location results in a negative extemality. Contracts are inherently incomplete since the first mover's initial decision cannot be specified. We analyze several kinds of rights, including damages, injunctions, and rights to exclude (arising from covenants or land ownership). There are cases in which allocating any of these basic rights to the first mover-i.e., first-party rights-is dominated by second-party rights, and cases in which the reverse is true. A Coasian result (efficiency regardless of the rights allocation) only holds under a limited set of conditions. As corollaries of a theorem ranking the basic rights regimes, a number of results emerge contradicting conventional wisdom, including the relative inefficiency of concentrated land ownership and the relevance of the generator's identity. We conclude with a mechanism and a new rights regime that each yield the first best in all cases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One property (called action-consistency) that is implicit in the common prior assumption (CPA) is identified and shown to be the driving force of the use of the CPA in a class of well-known results. In particular, we show that Aumann (1987)’s Bayesian characterization of correlated equilibrium, Aumann and Brandenburger (1995)’s epistemic conditions for Nash equilibrium, and Milgrom and Stokey (1982)’s no-trade theorem are all valid without the CPA but with action-consistency. Moreover, since we show that action-consistency is much less restrictive than the CPA, the above results are more general than previously thought, and insulated from controversies around the CPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies a model of a sequential auction where bidders are allowed to acquire further information about their valuations of the object in the middle of the auction. It is shown that, in any equilibrium where the distribution of the final price is atornless, a bidder's best response has a simple characterization. In particular, the optimal information acquisition point is the same, regardless of the other bidders' actions. This makes it natural to focus on symmetric, undominated equilibria, as in the Vickrey auction. An existence theorem for such a class of equilibria is presented. The paper also presents some results and numerical simulations that compare this sequential auction with the one-shot auction. 8equential auctions typically yield more expected revenue for the seller than their one-shot counterparts. 80 the possibility of mid-auction information acquisition can provide an explanation for why sequential procedures are more often adopted.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa comparar, estatisticamente, o desempenho de duas estratégias de imunização de carteiras de renda fixa, que são recalibradas periodicamente. A primeira estratégia, duração, considera alterações no nível da estrutura a termo da taxa de juros brasileira, enquanto a abordagem alternativa tem como objetivo imunizar o portfólio contra oscilações em nível, inclinação e curvatura. Primeiro, estimamos a curva de juros a partir do modelo polinomial de Nelson & Siegel (1987) e Diebold & Li (2006). Segundo, imunizamos a carteira de renda fixa adotando o conceito de construção de hedge de Litterman & Scheinkman (1991), porém assumindo que as taxas de juros não são observadas. O portfólio imunizado pela estratégia alternativa apresenta empiricamente um desempenho estatisticamente superior ao procedimento de duração. Mostramos também que a frequência ótima de recalibragem é mensal na análise empírica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ajuste assimétrico de preço é observado em diversos mercados, notavelmente varejo de gasolina: um aumento de custo é passado para os consumidores mais rápido do que uma redução. Eu desenvolvo um modelo de busca dos consumidores que gera essa predição sob aversão à perda. Uma fração dos consumidores ignora os preços no mercado e pode adquirir informação a um custo, o que permite que as firmas tenham lucro com dispersão de preços. Ajuste assimétrico de preço emerge se os consumidores são aversos a perdas em relação a um preço de referência. Custos mais altos tornam os consumidores mais dispostos a procurar, mas também diminui as chances de encontrar preços baixos, gerando uma relação custo-preço convexa.