907 resultados para Generalized Riemann Hypothesis


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The initial endogenous growth models emphasized the importance of externaI effects in explaining sustainable growth across time. Empirically, this hypothesis can be confirmed if the coefficient of physical capital per hour is unity in the aggregate production function. Although cross-section results concur with theory, previous estimates using time series data rejected this hypothesis, showing a small coefficient far from unity. It seems that the problem lies not with the theory but with the techniques employed, which are unable to capture low frequency movements in high frequency data. This paper uses cointegration - a technique designed to capture the existence of long-run relationships in multivariate time series - to test the externalities hypothesis of endogenous growth. The results confirm the theory' and conform to previous cross-section estimates. We show that there is long-run proportionality between output per hour and a measure of capital per hour. U sing this result, we confmn the hypothesis that the implied Solow residual can be explained by government expenditures on infra-structure, which suggests a supply side role for government affecting productivity and a decrease on the extent that the Solow residual explains the variation of output.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper the stastistical properties of the real exchange rates of G-5 countries for the Bretton-Woods peiod, and draw implications on the purchasing power parity (PPP) hypothesis. In contrast to most previous studies that consider only unit root and stationary process to describe the real exchange tae, this paper also considers two in-between processes, the locally persistent process ans the fractionally integrated process, to complement past studies. Seeking to be consistent with tha ample evidence of near unit in the real exchange rate movements very well. This finding implies that: 1) the real exchange movement is more persistent than the stationary case but less persistent than the unit root case; 2) the real exchange rate is non-stationary but the PPP reversion occurs and the PPP holds in the long run; 3) the real exchange rate does not exhibit the secular dependence of the fractional integration; 4) the real exchange rate evolves over time in a way that there is persistence over a range of time, but the effect of shocks will eventually disappear over time horizon longer than order O (nd), that is, at finite time horizon; 5) shocks dissipation is fasters than predicted by the fractional integracion, and the total sum of the effects of a unit innovation is finite, implying that a full PPP reversion occurs at finite horizons. These results may explain why pasrt empirical estudies could not provide a clear- conclusion on the real exchange rate processes and the PPP hypothesis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this paper is to test whether or not there was evidence of contagion across the various financial crises that assailed some countries in the 1990s. Data on sovereign debt bonds for Brazil, Mexico, Russia and Argentina were used to implement the test. The contagion hypothesis is tested using multivariate volatility models. If there is any evidence of structural break in volatility that can be linked to financial crises, the contagion hypothesis will be confirmed. Results suggest that there is evidence in favor of the contagion hypothesis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper studies the electricity hourly load demand in the area covered by a utility situated in the southeast of Brazil. We propose a stochastic model which employs generalized long memory (by means of Gegenbauer processes) to model the seasonal behavior of the load. The model is proposed for sectional data, that is, each hour’s load is studied separately as a single series. This approach avoids modeling the intricate intra-day pattern (load profile) displayed by the load, which varies throughout days of the week and seasons. The forecasting performance of the model is compared with a SARIMA benchmark using the years of 1999 and 2000 as the out-of-sample. The model clearly outperforms the benchmark. We conclude for general long memory in the series.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On March 4, 1999, the newly appointed President of the Brazilian Central Bank, Mr Armínio Fraga, raised interest rates to a staggering 45% per annum. The objective of that decision was to keep foreign investors assets in Brazil, and prevent the country from default. At the time, Brazil suffered frem an enormously intense crisis of confidence, and fears of such default were widespread. Mr Fraga was walking a very fine line when making that decision, for it could bring forth unintended effects: the market, already concerned about Brazil's sustainability, could perceive the increased rate as an irreversible step towards the abyss inevitable default. Economic theory postulates the rational actor model as the driving force behind economic decision-making. The objective of this thesis is to present and discuss the hypothesis that this particular decision, and by extension many others, are better explained threugh the recognition-primed decision mode!.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho consiste em estudar modelos incluindo agentes com informação completa e incompleta sobre o ambiente econômico. Prova-se a existência de equilíbrio em que esses dois agentes coexistem e sob, algumas condições, obtêm-se que esse equilíbrio é recursivo e contínuo, ou seja, pode ser implementado por uma função contínua de transição que relaciona as variáveis de equilíbrio entre dois períodos consecutivos. Mostra-se, sob algumas hipóteses, que em equilíbrios recursivos contínuos, os agentes que cometem erros persistentes nas antecipações dos preços de equilíbrio são eliminados do mercado. Finalmente, exibimos diversos exemplos numéricos, no caso de mercados incompletos e informação completa, em que os agentes com expectativas racionais são eliminados do mercado. Usam-se métodos numéricos alternativos que possibilitam computar um equilíbrio em modelos com agentes heterogêneos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentamos três métodos distintos provando que S(n) = +1 X k=−1 (4k + 1)−n é um múltiplo racional de n para todos os inteiros n = 1, 2, 3, . . . O primeiro utiliza a teoria das função analíticas e funções geradoras. No segundo reduzimos o problema, via mudança de variável devida a E. Calabi, ao cálculo do volume de certos politopos em Rn enquanto que no terceiro usamos a teoria dos operadores integrais compactos. Cada um dos métodos tem um interesse intrínsico e está sujeito a generalizações para aplicações em novas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo pretende trazer uma contribuição à discussão da relação linguagem-cognição, através do exame de um aspecto restrito do problema: a hipótese de uma base cognitiva para aquisição de linguagem. O modelo teórico piagetiano é analisado em sua explicação da ontogenese da linguagem como resultante das construções da inteligência sensório-motora. Alguns de seus aspectos são questionados, a possibilidade de sua explicitação em forma de hipótese verificável é examinada e a literatura é analisada em busca de evidências relevantes. A principal lacuna constatada é a visão de linguagem restrita a aspectos de desempenho, sendo levado em conta apenas o começo da emissão de palavras na quase totalidade das pesquisas. Ainda dentro de uma perspectiva construtivista, o esboço de um novo modelo teórico é proposto, incluindo a discussão da ontogenese da compreensão de linguagem. Hipóteses decorrentes da proposta teórica, especialmente a de início da possibilidade de tratar o signo linguístico antes do estágio VI, são formuladas e verificadas por pesquisa empírica. Esta inclui um estudo longitudinal e outro transversal do desenvolvimento linguístico e cognitivo de 45 crianças entre 8 e 18 meses. O desenvolvimento da compreensão é comparado em diversos aspectos ao da produção ou fala. Verifica-se que o primeiro começa mais cedo, é mais rápido e atinge um vocabulário maior e um nível mais complexo na faixa etária estudada. Há evidências ainda de diferenças no papel da imitação na construção do vocabulário nas duas vertentes. Observa-se um início de resposta mais generalizada e sistemática à linguagem a partir de nove meses, ocasião em que a criança se mostra capaz de coordenação de reações circulares secundárias e quando consegue reconstruir mentalmente um objeto invisível a partir de uma fração visível. Considera-se que esta resposta já envolve a decodificação de signos e a diferenciação significante-significado, numa etapa preliminar de um processo evolutivo que se entrelaça com a formação de conceitos. Os dados nao permitem a identificação de prê-requisitos cognitivos para aquisição de liguagem, mas dois aspectos podem ser destacados como correlatos do início do processo de compartilhar o signo linguístico: a possibilidade da criança compreender que tem um nome e responder a ele e uma intencionalidade primitiva. Os resultados apoiam as hipóteses formuladas e sugerem que as construções finais do período sensório-motor não são condições necessárias para aquisição de linguagem e que esta não ê consequência direta do desenvolvimento cognitivo. Novos estudos são necessários para suprir as limitações desta pesquisa e verificação das implicações decorrentes dos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença holandesa tornou-se amplamente conhecida na década de 1960, quando a descoberta repentina de reservatórios de gás natural em território holandês, na região do mar do norte, transformou o país em uma economia rica em recursos. A desagradável consequência que proveio da recém-adquirida abundância de commodities foi o declínio da próspera indústria holandesa, que perdeu sua competitividade devido à valorização do florim holandês, como consequência do aumento do influxo de capital estrangeiro no país. Desde então este fenômeno tem sido observado em diversos países que possuem abundância de commodities. O objetivo desta tese é aplicar o modelo da doença holandesa ao Brasil, já que a maior economia da América latina poderá também ter de encarar a ameaça de se tornar prisioneira da “armadilha das commodities”, devido à sua abundância de recursos naturais. O autor revisa a bibliografia básica abordando o tema geral da doença holandesa e dá enfoque a estudos realizados anteriormente no Brasil. Além disso, os quatro maiores sintomas que caracterizam a doença holandesa são testados: (1) valorização das taxas de câmbio do real, (2) declínio do setor industrial, (3) crescimento do setor de serviços, e (4) aumento dos salários. Todos estes sintomas foram observados e podem ser comprovados através das abordagens de cointegração ou de correlação, com exceção do sintoma número dois. Ainda que estes resultados sejam significativos, há muito outros fatores determinantes que influenciam o desenvolvimento dos sintomas examinados, motivo pelo qual futuros estudos serão necessários para se obtiver conclusões definitivas sobre como o Brasil é afetado pela doença holandesa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.