18 resultados para Classical measurement error model

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação de mestrado em economia foi motivada por uma questão complexa bastante estudada na literatura de economia política nos dias de hoje: as formas como campanhas políticas afetam votação em uma eleição. estudo procura modelar mercado eleitoral brasileiro para deputados federais senadores. Através de um modelo linear, conclui-se que os gastos em campanha eleitoral são fatores decisivos para eleição de um candidato deputado federal. Após reconhecer que variável que mede os gastos em campanha possui erro de medida (devido ao famoso "caixa dois", por exemplo), além de ser endógena uma vez que candidatos com maiores possibilidades de conseguir votos conseguem mais fontes de financiamento -, modelo foi estimado por variáveis instrumentais. Para senadores, utilizando modelos lineares modelos com variável resposta binaria, verifica-se também importância, ainda que em menor escala, da campanha eleitoral, sendo que um fator mais importante para corrida ao senado parece ser uma percepção priori da qualidade do candidato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é verificar se o ajustamento das condições de paridade de juros por expectativa do mercado (paridade descoberta) e por prêmios de risco (paridades coberta e descoberta) leva à validação da relação de não-arbitragem subjacente, ou pelo menos a resultados econométricos mais próximos de sua validação. Para isso, combinamos taxas de retornos de instrumentos de renda fixa domésticos e norte-americanos e aplicamos o arcabouço econométrico de séries de tempo. Como primeiro passo de investigação, aplicamos a paridade de juros (descoberta e coberta) na sua forma tradicional. No passo seguinte aplicamos os testes econométricos às condições de paridade ajustadas por um prêmio de risco. No caso da PDJ, não obtivemos resultados satisfatórios, mesmo ajustando pelos prêmios de risco. Esse ajuste propiciou uma mudança nos sinais dos coeficientes na direção correta, mas a magnitude do coeficiente da desvalorização cambial efetiva passou a destoar bastante da magnitude das outras séries. Apesar de termos obtido a validade da PCJ na forma tradicional, não esperaríamos este resultado, pois isso implicaria que o prêmio de risco país seria nulo para este período. Ajustando a PCJ pelo prêmio de risco de não-pagamento passa-se a não obter co integração entre as séries, ou seja, o prêmio de risco de não-pagamento teria um comportamento independente do prêmio futuro e do diferencial de juros. As possíveis causas para a não obtenção dos resultados esperados são: intervalo amostraI menor que 3 anos, erro de medida dos dados de survey ou tentativa do Banco Central de controlar a taxa de câmbio nominal e as taxas de juros domésticas simultaneamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Considerando os avanços da pesquisa e teoria da psicologia do risco e, em particular, da perspectiva do risco como sentimentos, ressaltando a interação entre cognição e emoção na análise de ameaças, esta tese propõe e testa um modelo conceitual sobre o efeito da vulnerabilidade (risco como sentimento) em intenções comportamentais de serviços relacionados a automóveis. Este estudo teve como hipótese que a autoeficácia percebida pelo consumidor diminui ou elimina o efeito da vulnerabilidade nas intenções comportamentais de perpetuidade de relacionamento com a empresa de serviço. Estimularam o interesse de pesquisa tanto a carência de pesquisas sobre o papel da vulnerabilidade no consumo de serviços não relacionados à área da saúde ou ao corpo do consumidor, quanto a carência de pesquisas sobre a relação entre a vulnerabilidade e as intenções comportamentais. Testou-se em um único modelo, o impacto previsto pelos processos cognitivos e afetivos que envolvem a análise de ameaça (sentimentos de vulnerabilidade, risco e severidade das falhas) e de capacidade de enfrentamento (autoeficácia) na intenção comportamental, no contexto específico de consumo de serviços relativos a automóveis. O modelo de mensuração proposto foi avaliado quanto à dimensionalidade, validade e confiabilidade pelo uso de análise fatorial confirmatória; posteriormente, avaliou-se a relação causal proposta nas hipóteses pelo modelo completo de equações estruturais. O modelo de mensuração proposto foi avaliado quanto à dimensionalidade, validade e confiabilidade pelo uso de análise fatorial confirmatória; posteriormente, avaliou-se a relação proposta nas hipóteses pelo modelo completo de equações estruturais, usando-se o software Amos e a estimativa por máxima verossimilhança. O modelo foi estimado em uma amostra de 202 respondentes. Os dados foram coletados por meio de um levantamento eletrônico transversal e os achados da pesquisa apontam para a confirmação das hipóteses de que (1) o risco percebido cognitivamente, sentimentos de vulnerabilidade e a autoeficácia influenciam as intenções comportamentais. Não foi possível suportar a hipótese de que (2) a severidade das possíveis falhas de serviço tem relação com risco ou com sentimentos de vulnerabilidade. Esses achados ajudam a compreender a relação entre intenções comportamentais e sentimentos de vulnerabilidade. Implicações para o desenvolvimento teórico da pesquisa na área e implicações gerenciais são discutidas. Os resultados auxiliam a compreensão dos resultados de estudos realizados nos EUA nas últimas décadas. Os achados oferecem uma contribuição teórica ao entendimento do fenômeno da vulnerabilidade, a adaptação de uma escala de medida para o fenômeno no contexto brasileiro e aplicado a serviços que não sejam de saúde e cuidados com o corpo. Do ponto de vista gerencial, o estudo alerta para o fato de a vulnerabilidade exercer influência no desempenho comercial de empresas de serviços automotivos, visto que ela influência negativamente a recomendação positiva e a manutenção de relacionamentos de negócios. Os achados sugerem que os gestores de empresas de serviços devem empreender esforços para reduzir a vulnerabilidade do consumidor por meio de informações que o auxiliem na negociação e avaliação do serviço ao minimizar incertezas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper discusses distribution and the historical phases of capitalism. It assumes that technical progress and growth are taking place, and, given that, its question is on the functional distribution of income between labor and capital, having as reference classical theory of distribution and Marx’s falling tendency of the rate of profit. Based on the historical experience, it, first, inverts the model, making the rate of profit as the constant variable in the long run and the wage rate, as the residuum; second, it distinguishes three types of technical progress (capital-saving, neutral and capital-using) and applies it to the history of capitalism, having the UK and France as reference. Given these three types of technical progress, it distinguishes four phases of capitalist growth, where only the second is consistent with Marx prediction. The last phase, after World War II, should be, in principle, capital-saving, consistent with growth of wages above productivity. Instead, since the 1970s wages were kept stagnant in rich countries because of, first, the fact that the Information and Communication Technology Revolution proved to be highly capital using, opening room for a new wage of substitution of capital for labor; second, the new competition coming from developing countries; third, the emergence of the technobureaucratic or professional class; and, fourth, the new power of the neoliberal class coalition associating rentier capitalists and financiers

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Real exchange rate is an important macroeconomic price in the economy and a ects economic activity, interest rates, domestic prices, trade and investiments ows among other variables. Methodologies have been developed in empirical exchange rate misalignment studies to evaluate whether a real e ective exchange is overvalued or undervalued. There is a vast body of literature on the determinants of long-term real exchange rates and on empirical strategies to implement the equilibrium norms obtained from theoretical models. This study seeks to contribute to this literature by showing that it is possible to calculate the misalignment from a mixed ointegrated vector error correction framework. An empirical exercise using United States' real exchange rate data is performed. The results suggest that the model with mixed frequency data is preferred to the models with same frequency variables

Relevância:

30.00% 30.00%

Publicador:

Resumo:

this article addresses the welfare and macroeconomics effects of fiscal policy in a frarnework where govemment chooses tax rates and the distribution of revenues between consumption and investment. We construct and simulate a model where public consumption affects individuaIs' utility and public capital is an argument of the production function. The simulations suggest that by simply reallocating expenditures from consumption to investment, the govemment can increase the equilibrium leveIs of capital stock, hours worked, output and labor productivity. Funhennore, we 'show that the magnitude and direction of the long run impact of fiscal policy depends on the size of the elasticity of output to public capital. If this parameter is high enough, it may be the case that capital stock, within limits, increases with tax rates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The increasing availability of social statistics in Latin America opens new possibilities in terms of accountability and incentive mechanisms for policy makers. This paper addresses these issues within the institutional context of the Brazilian educational system. We build a theoretical model based on the theory of incentives to analyze the role of the recently launched Basic Education Development Index (Ideb) in the provision of incentives at the sub-national level. The first result is to demonstrate that an education target system has the potential to improve the allocation of resources to education through conditional transfers to municipalities and schools. Second, we analyze the local government’s decision about how to allocate its education budget when seeking to accomplish the different objectives contemplated by the index, which involves the interaction between its two components, average proficiency and the passing rate. We discuss as well policy issues concerning the implementation of the synthetic education index in the light of this model arguing that there is room for improving the Ideb’s methodology itself. In addition, we analyze the desirable properties of an ideal education index and we argue in favor of an ex-post relative learning evaluation system for different municipalities (schools) based on the value added across different grades

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It is well known that cointegration between the level of two variables (e.g. prices and dividends) is a necessary condition to assess the empirical validity of a present-value model (PVM) linking them. The work on cointegration,namelyon long-run co-movements, has been so prevalent that it is often over-looked that another necessary condition for the PVM to hold is that the forecast error entailed by the model is orthogonal to the past. This amounts to investigate whether short-run co-movememts steming from common cyclical feature restrictions are also present in such a system. In this paper we test for the presence of such co-movement on long- and short-term interest rates and on price and dividend for the U.S. economy. We focuss on the potential improvement in forecasting accuracies when imposing those two types of restrictions coming from economic theory.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper has two original contributions. First, we show that the present value model (PVM hereafter), which has a wide application in macroeconomics and fi nance, entails common cyclical feature restrictions in the dynamics of the vector error-correction representation (Vahid and Engle, 1993); something that has been already investigated in that VECM context by Johansen and Swensen (1999, 2011) but has not been discussed before with this new emphasis. We also provide the present value reduced rank constraints to be tested within the log-linear model. Our second contribution relates to forecasting time series that are subject to those long and short-run reduced rank restrictions. The reason why appropriate common cyclical feature restrictions might improve forecasting is because it finds natural exclusion restrictions preventing the estimation of useless parameters, which would otherwise contribute to the increase of forecast variance with no expected reduction in bias. We applied the techniques discussed in this paper to data known to be subject to present value restrictions, i.e. the online series maintained and up-dated by Shiller. We focus on three different data sets. The fi rst includes the levels of interest rates with long and short maturities, the second includes the level of real price and dividend for the S&P composite index, and the third includes the logarithmic transformation of prices and dividends. Our exhaustive investigation of several different multivariate models reveals that better forecasts can be achieved when restrictions are applied to them. Moreover, imposing short-run restrictions produce forecast winners 70% of the time for target variables of PVMs and 63.33% of the time when all variables in the system are considered.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lucas (2000) estimates that the US welfare costs of inflation are around 1% of GDP. This measurement is consistent with a speci…c distorting channel in terms of the Bailey triangle under the demand for monetary base schedule (outside money): the displacement of resources from the production of consumption goods to the household transaction time à la Baumol. Here, we consider also several new types of distortions in the manufacturing and banking industries. Our new evidences show that both banks and firms demand special occupational employments to avoid the inflation tax. We de…ne the concept of ”the foat labor”: The occupational employments that are aflected by the in‡ation rates. More administrative workers are hired relatively to the bluecollar workers for producing consumption goods. This new phenomenon makes the manufacturing industry more roundabout. To take into account this new stylized fact and others, we redo at same time both ”The model 5: A Banking Sector -2” formulated by Lucas (1993) and ”The Competitive Banking System” proposed by Yoshino (1993). This modelling allows us to characterize better the new types of misallocations. We …nd that the maximum value of the resources wasted by the US economy happened in the years 1980-81, after the 2nd oil shock. In these years, we estimate the excess resources that are allocated for every speci…c distorting channel: i) The US commercial banks spent additional resources of around 2% of GDP; ii) For the purpose of the firm foating time were used between 2.4% and 4.1% of GDP); and iii) For the household transaction time were allocated between 3.1% and 4.5 % of GDP. The Bailey triangle under the demand for the monetary base schedule represented around 1% of GDP, which is consistent with Lucas (2000). We estimate that the US total welfare costs of in‡ation were around 10% of GDP in terms of the consumption goods foregone. The big di¤erence between our results and Lucas (2000) are mainly due to the Harberger triangle in the market for loans (inside money) which makes part of the household transaction time, of the …rm ‡oat labor and of the distortion in the banking industry. This triangle arises due to the widening interest rates spread in the presence of a distorting inflation tax and under a fractionally reserve system. The Harberger triangle can represent 80% of the total welfare costs of inflation while the remaining percentage is split almost equally between the Bailey triangle and the resources used for the bank services. Finally, we formulate several theorems in terms of the optimal nonneutral monetary policy so as to compare with the classical monetary theory.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study aims to contribute on the forecasting literature in stock return for emerging markets. We use Autometrics to select relevant predictors among macroeconomic, microeconomic and technical variables. We develop predictive models for the Brazilian market premium, measured as the excess return over Selic interest rate, Itaú SA, Itaú-Unibanco and Bradesco stock returns. We nd that for the market premium, an ADL with error correction is able to outperform the benchmarks in terms of economic performance. For individual stock returns, there is a trade o between statistical properties and out-of-sample performance of the model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We develop an affine jump diffusion (AJD) model with the jump-risk premium being determined by both idiosyncratic and systematic sources of risk. While we maintain the classical affine setting of the model, we add a finite set of new state variables that affect the paths of the primitive, under both the actual and the risk-neutral measure, by being related to the primitive's jump process. Those new variables are assumed to be commom to all the primitives. We present simulations to ensure that the model generates the volatility smile and compute the "discounted conditional characteristic function'' transform that permits the pricing of a wide range of derivatives.