20 resultados para Dow, sindrome de

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo aplica rn.n teori,ma de existência de equilibrios de Nash sob incerteza (Dow & Werlang, 1~4) a um problema clássico da Teoria da Competição Oligopolística. Particularmente, mostra como se pode mapear todos os equilibrios de Cournot (que incluem as soluções de monopólio e de bloqueio total da produção) unicamente em função da aversão à incerteza dos produtores. Os efeitos das variações destes parâmetros sobre as produções de equilibrio são estudados. Também, as soluções de Cournot sob incerteza são comparadas com a solução do monopolio standard. Particularmente, mostra-se: que existe um nível de incerteza tal que toda aversão à incerteza (do mercado) superior à este nível, induz os agentes a produzir, agregadamente, quantidades menores que as de monopolio. Enfim, as soluções de equilibrio são particularizadas explícitamente nos casos da Demanda Linear e do Duopolio de Cournot

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the proposition that if it is common knowledge that en allocation of assets is ex-ante pareto efficient, there is no further trade generated by new information. The key to this result is that the information partitions and other characteristics of the agents must be common knowledge and that contracts, or asset markets, must be complete. It does not depend on learning, on 'lemons' problems, nor on agreement regarding beliefs and the interpretation of information. The only requirement on preferences is state-additivity; in particular, traders need not be risk-averse. We also prove the converse result that "no-trade results" imply that traders' preferences can be represented by state-additive utility functions. We analyze why examples of other widely studied preferences (e.g., Schmeidler (1989)) allow "speculative" trade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes properties of upper semi-continuous homothetic preferences. First we give conditions for the existence of an upper semi-continuous representation which is homogeneous of degree one. Then we show that with the additional assumptions of monotonicity or strict convexity, the preference is continuous. Several counterexamples illustrate the tightness of the results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we apply the theory of declsion making with expected utility and non-additive priors to the choice of optimal portfolio. This theory describes the behavior of a rational agent who i5 averse to pure 'uncertainty' (as well as, possibly, to 'risk'). We study the agent's optimal allocation of wealth between a safe and an uncertain asset. We show that there is a range of prices at which the agent neither buys not sells short the uncertain asset. In contrast the standard theory of expected utility predicts that there is exactly one such price. We also provide a definition of an increase in uncertainty aversion and show that it causes the range of prices to increase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We apply the concept of exchangeable random variables to the case of non-additive robability distributions exhibiting ncertainty aversion, and in the lass generated bya convex core convex non-additive probabilities, ith a convex core). We are able to rove two versions of the law of arge numbers (de Finetti's heorems). By making use of two efinitions. of independence we rove two versions of the strong law f large numbers. It turns out that e cannot assure the convergence of he sample averages to a constant. e then modal the case there is a true" probability distribution ehind the successive realizations of the uncertain random variable. In this case convergence occurs. This result is important because it renders true the intuition that it is possible "to learn" the "true" additive distribution behind an uncertain event if one repeatedly observes it (a sufficiently large number of times). We also provide a conjecture regarding the "Iearning" (or updating) process above, and prove a partia I result for the case of Dempster-Shafer updating rule and binomial trials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper is about economies with a representative consumer. In general a representative consumer need not exist, although there are several well known sets of sufficient conditions under which Qne will. It is common practice, however, to use the representative consumer hypothesis without specifically assuming any of these. We show, firstly, that it is possible for the utility of the representative consumer to increase when every actual consumer is made worse off. This shows a serious shortcoming of welfare judgements based on the representatíve consumer. Secondly, in economies where this does not occur, there exists a social welfare function, which we construct, which is consistent with welfare judgements based on the utility of the representative consumer. Finally we provide a converse to Samuelson' s 1956 representative consumer result, which relates it to Scitovsky's community indifference curves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The most widely used updating rule for non-additive probalities is the Dempster-Schafer rule. Schmeidles and Gilboa have developed a model of decision making under uncertainty based on non-additive probabilities, and in their paper “Updating Ambiguos Beliefs” they justify the Dempster-Schafer rule based on a maximum likelihood procedure. This note shows in the context of Schmeidler-Gilboa preferences under uncertainty, that the Dempster-Schafer rule is in general not ex-ante optimal. This contrasts with Brown’s result that Bayes’ rule is ex-ante optimal for standard Savage preferences with additive probabilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This artic/e applies a theorem of Nash equilibrium under uncertainty (Dow & Werlang, 1994) to the classic Coumot model of oligopolistic competition. It shows, in particular, how one can map all Coumot equilibrium (which includes the monopoly and the null solutions) with only a function of uncertainty aversion coefficients of producers. The effect of variations in these parameters over the equilibrium quantities are studied, also assuming exogenous increases in the number of matching firms in the game. The Cournot solutions under uncertainty are compared with the monopolistic one. It shows principally that there is an uncertainty aversion level in the industry such that every aversion coefficient beyond it induces firms to produce an aggregate output smaller than the monopoly output. At the end of the artic/e equilibrium solutions are specialized for Linear Demand and for Coumot duopoly. Equilibrium analysis in the symmetric case allows to identify the uncertainty aversion coefficient for the whole industry as a proportional lack of information cost which would be conveyed by market price in the perfect competition case (Lerner Index).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define Nash equilibrium for two-person normal form games in the presence of uncertainty, in the sense of Knight(1921). We use the fonna1iution of uncertainty due to Schmeidler and Gilboa. We show tbat there exist Nash equilibria for any degree of uncertainty, as measured by the uncertainty aversion (Dow anel Wer1ang(l992a». We show by example tbat prudent behaviour (maxmin) can be obtained as an outcome even when it is not rationaliuble in the usual sense. Next, we break down backward industion in the twice repeated prisoner's dilemma. We link these results with those on cooperation in the finitely repeated prisoner's dilemma obtained by Kreps-Milgrom-Roberts-Wdson(1982), and withthe 1iterature on epistemological conditions underlying Nash equilibrium. The knowledge notion implicit in this mode1 of equilibrium does not display logical omniscience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present two alternative definitions of Nash equilibrium for two person games in the presence af uncertainty, in the sense of Knight. We use the formalization of uncertainty due to Schmeidler and Gilboa. We show that, with one of the definitions, prudent behaviour (maxmin) can be obtained as an outcome even when it is not rationalizable in the usual sense. Most striking is that with the Same definition we break down backward induction in the twice repeated prisoner's dilemma. We also link these results with the Kreps-Milgrom-Roberts-Wilson explanation of cooperation in the finitely repeated prisoner's dilemma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho objetivou utilizar a metodologia de análise clínica para verificar se as empresas multinacionais com operação no Brasil aplicam os conceitos de eco-eficiência e eco-efetividade como direcionadores de valor para a aprovação de projetos. A metodologia geração de valor sustentável para o acionista desenvolvida por Hart e Milstein (2003) foi escolhida para ser a base da análise clínica. A análise clínica foi realizada em empresa multinacional listada entre as 500 maiores empresas do mundo e apontada como melhores práticas pelo índice de sustentabilidade Dow Jones, da bolsa de valores dos Estados Unidos da América. A análise clínica demonstrou que a empresa incorpora em sua política de aprovação de projetos de investimento os conceitos de sustentabilidade ambiental, sendo eficiente para a maioria dos aspectos de verificação com base na geração de valor sustentável para o acionista, sendo falha apenas na análise do ciclo de vida dos produtos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game.