9 resultados para Omitted variables

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The goal of this paper is to show the possibility of a non-monotone relation between coverage ans risk which has been considered in the literature of insurance models since the work of Rothschild and Stiglitz (1976). We present an insurance model where the insured agents have heterogeneity in risk aversion and in lenience (a prevention cost parameter). Risk aversion is described by a continuous parameter which is correlated with lenience and for the sake of simplicity, we assume perfect correlation. In the case of positive correlation, the more risk averse agent has higher cosr of prevention leading to a higher demand for coverage. Equivalently, the single crossing property (SCP) is valid and iplies a positive correlation between overage and risk in equilibrium. On the other hand, if the correlation between risk aversion and lenience is negative, not only may the SCP be broken, but also the monotonocity of contracts, i.e., the prediction that high (low) risk averse types choose full (partial) insurance. In both cases riskiness is monotonic in risk aversion, but in the last case there are some coverage levels associated with two different risks (low and high), which implies that the ex-ante (with respect to the risk aversion distribution) correlation between coverage and riskiness may have every sign (even though the ex-post correlation is always positive). Moreover, using another instrument (a proxy for riskiness), we give a testable implication to desentangle single crossing ans non single croosing under an ex-post zero correlation result: the monotonicity of coverage as a function os riskiness. Since by controlling for risk aversion (no asymmetric information), coverage is monotone function of riskiness, this also fives a test for asymmetric information. Finally, we relate this theoretical results to empirical tests in the recent literature, specially the Dionne, Gouruéroux and Vanasse (2001) work. In particular, they found an empirical evidence that seems to be compatible with asymmetric information and non single crossing in our framework. More generally, we build a hidden information model showing how omitted variables (asymmetric information) can bias the sign of the correlation of equilibrium variables conditioning on all observable variables. We show that this may be the case when the omitted variables have a non-monotonic relation with the observable ones. Moreover, because this non-dimensional does not capture this deature. Hence, our main results is to point out the importance of the SPC in testing predictions of the hidden information models.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho investigou o problema da determinação da produtividade total dos fatores em diversos setores industriais. Tal determinação se dá por meio de estimação de funções de produção, obtendo-se a produtividade a partir do resíduo destas estimações. A questão que aflora deste procedimento é a existência de correlação entre os resíduos e as variáveis explicativas, implicando em diversos vieses, entre eles o de simultaneidade, de variáveis omitidas e de seleção. Neste trabalho foram abordados diversos métodos de estimação de funções de produção, entre eles os métodos de Olley e Pakes e Levinsohn e Petrin. Todos os métodos foram aplicados a diversos setores da economia. A escolha dos setores se deu com base na intensidade tecnológica de cada um, sendo então escolhidos quatro setores de alta intensidade tecnológica e quatro de baixa intensidade tecnológica. A hipótese básica, fio condutor deste trabalho, é que os diversos métodos de estimação de funções de produção apresentam diferentes resultados quando aplicados a setores de diferentes intensidades tecnológicas. Um dos objetivos deste estudo foi identificar se determinado método seria mais adequado a setores de baixa intensidade tecnológica, enquanto outro seria mais apropriado a setores de alta intensidade tecnológica. Conclui-se que o método de Olley e Pakes é levemente superior ao de Levinsohn e Petrin em ambos os grupos de setores, mas não a ponto de se descartar o segundo método. A sensibilidade dos resultados aos diferentes métodos sugere que todos devem ser consultados. Um resultado adicional deste trabalho é a constatação de que houve queda ou estagnação da produtividade nos setores selecionados para a década de 1996 a 2005.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem, como tema central, a análise da descentralização e da participação como categorias democratizantes da reforma do Estado, particularmente, na área das políticas de saúde no Brasil e na Colômbia. Foi realizada uma análise teórica de ambas as categorias e de seu impacto na reformulação da relação Estado e sociedade para examinar, no último capítulo, sua conjunção na formulação, implementação e controle das políticas de saúde. Os resultados obtidos permitiram elaborar um marco analítico de gradação dos níveis de descentralização e participação assim como a importância destas na prática de uma gestão de saúde mais democrática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese investiga as estratégias de precificação em ambientes macroeconômicos distintos, utilizando uma base de dados única para o IPC da Fundação Getulio Vargas. A base de dados primária consiste em um painel de dados individuais para bens e serviços representando 100% do IPC para o período de 1996 a 2008. Durante este período, diversos eventos produziram uma variabilidade macroeconômica substancial no Brasil: duas crises em países emergentes, uma mudança de regime cambial e monetário, racionamento de energia, uma crise de expectativas eleitorais e um processo de desinflação. Como consequência, a inflação, a incerteza macroeconômica, a taxa de câmbio e o produto exibiram uma variação considerável no período. No primeiro capítulo, nós descrevemos a base de dados e apresentamos as principais estatísticas de price-setting para o Brasil. Em seguida, nos capítulos 2 e 3, nos construímos as séries de tempo destas estatísticas e das estatísticas de promoções, e as relacionamos com as variáveis macroeconômicas utilizando análises de regressões. Os resultados indicam que há uma relação substancial entre as estatísticas de price-setting e o ambiente macroeconômico para a economia brasileira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, propusemos um modelo DSGE que busca responder algumas questões sobre políticas de afrouxamento monetário (Quantitative Easing - QE) recentemente implementadas em resposta à crise de 2008. Desenvolvemos um modelo DSGE com agentes heterogêneos e preferred-habitat nas compras de títulos do governo. Nosso modelo permite o estudo da otimalidade da compra de portfolio (em termos de duration dos títulos) para os bancos centrais quando estão implementando a política. Além disso, a estrutura heterogênea nos permite olhar para distribuição de renda provocada pelas compras de títulos. Nossos resultados preliminares evidenciam o efeito distributivo do QE. No entanto, nosso modelo expandido apresentou alguns problemas de estabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper considers two-sided tests for the parameter of an endogenous variable in an instrumental variable (IV) model with heteroskedastic and autocorrelated errors. We develop the nite-sample theory of weighted-average power (WAP) tests with normal errors and a known long-run variance. We introduce two weights which are invariant to orthogonal transformations of the instruments; e.g., changing the order in which the instruments appear. While tests using the MM1 weight can be severely biased, optimal tests based on the MM2 weight are naturally two-sided when errors are homoskedastic. We propose two boundary conditions that yield two-sided tests whether errors are homoskedastic or not. The locally unbiased (LU) condition is related to the power around the null hypothesis and is a weaker requirement than unbiasedness. The strongly unbiased (SU) condition is more restrictive than LU, but the associated WAP tests are easier to implement. Several tests are SU in nite samples or asymptotically, including tests robust to weak IV (such as the Anderson-Rubin, score, conditional quasi-likelihood ratio, and I. Andrews' (2015) PI-CLC tests) and two-sided tests which are optimal when the sample size is large and instruments are strong. We refer to the WAP-SU tests based on our weights as MM1-SU and MM2-SU tests. Dropping the restrictive assumptions of normality and known variance, the theory is shown to remain valid at the cost of asymptotic approximations. The MM2-SU test is optimal under the strong IV asymptotics, and outperforms other existing tests under the weak IV asymptotics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work we focus on tests for the parameter of an endogenous variable in a weakly identi ed instrumental variable regressionmodel. We propose a new unbiasedness restriction for weighted average power (WAP) tests introduced by Moreira and Moreira (2013). This new boundary condition is motivated by the score e ciency under strong identi cation. It allows reducing computational costs of WAP tests by replacing the strongly unbiased condition. This latter restriction imposes, under the null hypothesis, the test to be uncorrelated to a given statistic with dimension given by the number of instruments. The new proposed boundary condition only imposes the test to be uncorrelated to a linear combination of the statistic. WAP tests under both restrictions to perform similarly numerically. We apply the di erent tests discussed to an empirical example. Using data from Yogo (2004), we assess the e ect of weak instruments on the estimation of the elasticity of inter-temporal substitution of a CCAPM model.