16 resultados para variable smoothing constant
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
li consumption is log-Normal and is decomposed into a linear deterministic trend and a stationary cycle, a surprising result in business-cycle research is that the welfare gains of eliminating uncertainty are relatively small. A possible problem with such calculations is the dichotomy between the trend and the cyclical components of consumption. In this paper, we abandon this dichotomy in two ways. First, we decompose consumption into a deterministic trend, a stochastic trend, and a stationary cyclical component, calculating the welfare gains of cycle smoothing. Calculations are carried forward only after a careful discussion of the limitations of macroeconomic policy. Second, still under the stochastic-trend model, we incorporate a variable slope for consumption depending negatively on the overall volatility in the economy. Results are obtained for a variety of preference parameterizations, parameter values, and different macroeconomic-policy goals. They show that, once the dichotomy in the decomposition in consumption is abandoned, the welfare gains of cycle smoothing may be substantial, especially due to the volatility effect.
Resumo:
The study aims to assess the empirical adherence of the permanent income theory and the consumption smoothing view in Latin America. Two present value models are considered, one describing household behavior and the other open economy macroeconomics. Following the methodology developed in Campbell and Schiller (1987), Bivariate Vector Autoregressions are estimated for the saving ratio and the real growth rate of income concerning the household behavior model and for the current account and the change in national cash ‡ow regarding the open economy model. The countries in the sample are considered separately in the estimation process (individual system estimation) as well as jointly (joint system estimation). Ordinary Least Squares (OLS) and Seemingly Unrelated Regressions (SURE) estimates of the coe¢cients are generated. Wald Tests are then conducted to verify if the VAR coe¢cient estimates are in conformity with those predicted by the theory. While the empirical results are sensitive to the estimation method and discount factors used, there is only weak evidence in favor of the permanent income theory and consumption smoothing view in the group of countries analyzed.
Resumo:
We apply the concept of exchangeable random variables to the case of non-additive robability distributions exhibiting ncertainty aversion, and in the lass generated bya convex core convex non-additive probabilities, ith a convex core). We are able to rove two versions of the law of arge numbers (de Finetti's heorems). By making use of two efinitions. of independence we rove two versions of the strong law f large numbers. It turns out that e cannot assure the convergence of he sample averages to a constant. e then modal the case there is a true" probability distribution ehind the successive realizations of the uncertain random variable. In this case convergence occurs. This result is important because it renders true the intuition that it is possible "to learn" the "true" additive distribution behind an uncertain event if one repeatedly observes it (a sufficiently large number of times). We also provide a conjecture regarding the "Iearning" (or updating) process above, and prove a partia I result for the case of Dempster-Shafer updating rule and binomial trials.
Resumo:
O senso comum vincula a falta de qualidade do ensino público à insuficiência de recursos financeiros disponíveis. Também no meio acadêmico, pesquisadores alegam a inexistência de recursos suficientes para que seja fornecida uma educação de qualidade, enquanto outros acadêmicos defendem que, apesar de poucos recursos disponíveis, o maior problema é a falta de eficiência dos investimentos financeiros pelo gestor público. Nesta pesquisa foram realizadas duas análises: a primeira correlacionando a qualidade do ensino aos investimentos financeiros sob uma perspectiva quantitativa destes investimentos, utilizando um modelo de análise bivariável; enquanto a segunda análise correlaciona a qualidade do ensino aos investimentos financeiros sob uma perspectiva qualitativa destes investimentos, utilizando a alocação dos recursos financeiros para qualificá-los. A análise dos resultados desta pesquisa comprova que os investimentos financeiros no ensino não devem ser vinculados somente em função da quantidade dos investimentos financeiros. Os investimentos financeiros podem ser alocados em diversos tipos de despesas no universo educacional, tais como: remuneração de magistério, alimentação e transporte escolar, distribuição de uniformes, materiais didáticos, infra-estrutura, dentre outros. Algumas dessas despesas agregam maior valor ao ensino que outras. Assim, a prioridade dos programas e políticas educacionais municipais está diretamente ligada à qualidade do ensino municipal.
Resumo:
La presente tesis aborda el tema de la Visión Estratégica en el contexto de la empresa pública brasilefía, Siendo que para facilitar el análisis, la practica estratégica es evaluada en términos de Planeamiento Empresarial, Planeamiento Estratégico o Administración Estratégica según sea el caso. EI objetivo de la investigación es análizm y determinar el grado de utilización y apoyo de la referida herramienta gerencial en la optimización de la gestión cotidiana de dichas empresas públicas. Así, son analisados el nivel de suceso, las falias, así como sus oportunidades de utilización, a la luz dei referencial teórico existente y salvando las restricciones, por cuanto la mayor parte de la literatura encontrada versa sohre la empresa privada. Los resultados de la investigación, bibliográfica, documental y de campo practicadas en empresas públicas brasilefías de grande porte, tales como Compafíía Vale do Rio Doce, Petrobrás, Embratel, Eletrobrás y BNDES, muestran los diferentes grados de aplicación de la Visión Estratégica en las mismas. Siendo que su efectiva inserción en la practica gerencial, está condicionada, entre otros factores, a que se aprenda a lidiar con la variable política, y a que se trabaje ell pro de Cultura, Estructuras Organizacionales, Sistemas de Información Gerencial, Recursos Humanos para el planeamiento. Se apreció, que en la mayoría de las empresas investigadas, la Visión Estratégica cn la Gerencia y especialmcnte en el proceso de planeamicnto es rcciente pero que viene siendo inserida en la filosoFía gerencial gradual y lentamente, ganando cada vez mayor relevancia.
Resumo:
Esta dissertação girou em torno de um estudo sobre a natureza do desempenho dos grupos em função de algumas variáveis consideradas relevantes. Partindo de pressuposições teóricas que fundamentam o estudo sobre a natureza, origem e funcionamento dos grupos, notadamente Freud, Moreno, Sartre e Lewin e da análise do fenômeno “processo rio em grupo” realizada por Collins e Guetzkow, Oavis e Jay Hall, planejou-se a presente pesquisa que visou analisar o comportamento da variável independente grau de atratividade previa entre os membros de um grupo quando em busca de um consenso. Surpreendentemente os resultados foram completamente discrepantes com as expectativas formuladas. No entanto, pela análise qualitativa e subsequente verificação quantitativa dos dados coletados, tornou-se possível em termos de uma autêntica “serendipity" obter-se um novo e inesperado resultado: ao invés da atratividade ser responsável por uma relativa rigidez ideológica do grupo, constatou-se o alto poder de liberação da criatividade que a atratividade entre os membros exerce. Fator extremamente favorável ao trabalho foi a uniformidade (não esperada) e, inicialmente, não desejada do potencial médio de informações disponíveis, bem como do nível médio de inteligência e da própria performance do grupo. Desta forma, por terem tais fontes de variação se mantidas constante, puderam se converter, na reformulação da pesquisa, em variáveis intervenientes, tornando explicita a dependência do “efeito sinergético” frente ao grau de atratividade.
Resumo:
A mandioca (Manihot esculenta Crantz) é uma planta cultivada predominantemente para a subsistência dos trabalhadores rurais sendo uma das principais fontes de carboidratos disponíveis aos estratos sociais de baixa renda e tem importante participação na geração de emprego e renda. O Estado do Pará destaca-se pelo volume de produção de mandioca, mas o cultivo ainda está voltado essencialmente para a subsistência sendo pouco explorado como matéria prima em derivados industriais e insumo para enfrentar problemas globais como a fome, a degradação ambiental e a produção de energia, gerando emprego e renda para comunidades locais e rurais. Este estudo tem como objetivo avaliar como está se desenvolvendo a organização de produtores rurais de mandioca da Associação de Desenvolvimento Comunitário e Rural Bom Jesus, através do modelo de gestão de cadeia produtiva e compreender em que medida se justifica economicamente o cultivo de mandioca. A pesquisa é de natureza exploratória e descritiva e por meio do questionário e entrevista aplicado a 17 produtores rurais juntamente com a fundamentação teórica sobre o entendimento contemporâneo de cadeia produtiva foram percebidos evidências que justificam economicamente, em parte, o cultivo da mandioca. A geração de postos de trabalhos para as mulheres, a utilização de resíduos como incremento no arranjo produtivo, a apoio da extensão e do crédito rural, e as vantagens advindas da organização dos produtores rurais proporcionando renda e produção constantes no campo, foram os fatores considerados. Porém, a necessidade de inovações tecnológicas, parcerias com os setores industriais, arranjos produtivos mais rentáveis, mecanização do plantio e da colheita, os problemas ambientais (resíduos tóxicos e desmatamento) e de acesso à pesquisa, o nível de escolaridade, e a cooperação entre os agricultores, são desafios reais a serem enfrentados e o fator decisivo é o apoio governamental. Este estudo demonstra a realidade de uma sociedade quase sempre marginalizada e esquecida pelas políticas públicas. Além da variável econômica, a avaliação das culturas produtivas deve passar pelos filtros de análise social e ambiental, pois assim, nos permite com maior exatidão compreender os problemas reais da nossa sociedade, em especial da vida na Amazônia.
Resumo:
A inconsistência entre a teoria e o comportamento empírico dos agentes no que tange ao mercado privado de pensões tem se mostrado um dos mais resistentes puzzles presentes na literatura econômica. Em modelos de otimização intertemporal de consumo e poupança sob incerteza em relação ao tempo de vida dos agentes, anuidades são ativos dominantes, anulando ou restringindo fortemente a demanda por ativos cujos retornos não estão relacionados à probabilidade de sobrevivência. Na prática, entretanto, consumidores são extremamente céticos em relação às anuidades. Em oposição ao seguro contra longevidade oferecido pelas anuidades, direitos sobre esses ativos - essencialmente ilíquidos - cessam no caso de morte do titular. Nesse sentido, choques não seguráveis de liquidez e a presença de bequest motives foram consideravelmente explorados como possíveis determinantes da baixa demanda verificada. Apesar dos esforços, o puzzle persiste. Este trabalho amplia a dominância teórica das anuidades sobre ativos não contingentes em mercados incompletos; total na ausência de bequest motives, e parcial, quando os agentes se preocupam com possíveis herdeiros. Em linha com a literatura, simulações numéricas atestam que uma parcela considerável do portfolio ótimo dos agentes seria constituída de anuidades mesmo diante de choques de liquidez, bequest motives, e preços não atuarialmente justos. Em relação a um aspecto relativamente negligenciado pela academia, mostramos que o tempo ótimo de conversão de poupança em anuidades está diretamente relacionado à curva salarial dos agentes. Finalmente, indicamos que, caso as preferências dos agentes sejam tais que o nível de consumo ótimo decaia com a idade, a demanda por anuidades torna-se bastante sensível ao sobrepreço (em relação àquele atuarialmente justo) praticado pela indústria, chegando a níveis bem mais compatíveis com a realidade empírica.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Over the last decades, the analysis of the transmissions of international nancial events has become the subject of many academic studies focused on multivariate volatility models volatility. The goal of this study is to evaluate the nancial contagion between stock market returns. The econometric approach employed was originally presented by Pelletier (2006), named Regime Switching Dynamic Correlation (RSDC). This methodology involves the combination of Constant Conditional Correlation Model (CCC) proposed by Bollerslev (1990) with Markov Regime Switching Model suggested by Hamilton and Susmel (1994). A modi cation was made in the original RSDC model, the introduction of the GJR-GARCH model formulated in Glosten, Jagannathan e Runkle (1993), on the equation of the conditional univariate variances to allow asymmetric e ects in volatility be captured. The database was built with the series of daily closing stock market indices in the United States (SP500), United Kingdom (FTSE100), Brazil (IBOVESPA) and South Korea (KOSPI) for the period from 02/01/2003 to 09/20/2012. Throughout the work the methodology was compared with others most widespread in the literature, and the model RSDC with two regimes was de ned as the most appropriate for the selected sample. The set of results provide evidence for the existence of nancial contagion between markets of the four countries considering the de nition of nancial contagion from the World Bank called very restrictive. Such a conclusion should be evaluated carefully considering the wide diversity of de nitions of contagion in the literature.
Resumo:
We develop a model of comparative advantage with monopolistic competition, that incorporates heterogeneous firms and endogenous mark-ups. We analyse how these features vary across countries with different factor endowments, and across markets of different size. In this model we can obtain trade gains via two channels. First, when we open the economy, most productive firms start to export their product, then, they demand more producing factors and wages rises, thus, those firms that are less productive will be forced to stop to produce. Second channel is via endogenous mark-ups, when we open the economy, the competition gets ``tougher'', then, mark-ups falls, thus, those firms that are less productive will stop to produce. We also show that comparative advantage works as a ``third channel'' of trade gains, because, all trade gains results are magnified in comparative advantage industry of both countries. We also make a numerical exercise to see how endogenous variables of the model vary when trade costs fall.
Resumo:
In this article we use factor models to describe a certain class of covariance structure for financiaI time series models. More specifical1y, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. We build on previous work by allowing the factor loadings, in the factor mo deI structure, to have a time-varying structure and to capture changes in asset weights over time motivated by applications with multi pIe time series of daily exchange rates. We explore and discuss potential extensions to the models exposed here in the prediction area. This discussion leads to open issues on real time implementation and natural model comparisons.
Resumo:
The past decade has wítenessed a series of (well accepted and defined) financial crises periods in the world economy. Most of these events aI,"e country specific and eventually spreaded out across neighbor countries, with the concept of vicinity extrapolating the geographic maps and entering the contagion maps. Unfortunately, what contagion represents and how to measure it are still unanswered questions. In this article we measure the transmission of shocks by cross-market correlation\ coefficients following Forbes and Rigobon's (2000) notion of shift-contagion,. Our main contribution relies upon the use of traditional factor model techniques combined with stochastic volatility mo deIs to study the dependence among Latin American stock price indexes and the North American indexo More specifically, we concentrate on situations where the factor variances are modeled by a multivariate stochastic volatility structure. From a theoretical perspective, we improve currently available methodology by allowing the factor loadings, in the factor model structure, to have a time-varying structure and to capture changes in the series' weights over time. By doing this, we believe that changes and interventions experienced by those five countries are well accommodated by our models which learns and adapts reasonably fast to those economic and idiosyncratic shocks. We empirically show that the time varying covariance structure can be modeled by one or two common factors and that some sort of contagion is present in most of the series' covariances during periods of economical instability, or crisis. Open issues on real time implementation and natural model comparisons are thoroughly discussed.
Resumo:
This paper discusses distribution and the historical phases of capitalism. It assumes that technical progress and growth are taking place, and, given that, its question is on the functional distribution of income between labor and capital, having as reference classical theory of distribution and Marx’s falling tendency of the rate of profit. Based on the historical experience, it, first, inverts the model, making the rate of profit as the constant variable in the long run and the wage rate, as the residuum; second, it distinguishes three types of technical progress (capital-saving, neutral and capital-using) and applies it to the history of capitalism, having the UK and France as reference. Given these three types of technical progress, it distinguishes four phases of capitalist growth, where only the second is consistent with Marx prediction. The last phase, after World War II, should be, in principle, capital-saving, consistent with growth of wages above productivity. Instead, since the 1970s wages were kept stagnant in rich countries because of, first, the fact that the Information and Communication Technology Revolution proved to be highly capital using, opening room for a new wage of substitution of capital for labor; second, the new competition coming from developing countries; third, the emergence of the technobureaucratic or professional class; and, fourth, the new power of the neoliberal class coalition associating rentier capitalists and financiers
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.