31 resultados para grouping estimators
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
This paper provides a systematic and unified treatment of the developments in the area of kernel estimation in econometrics and statistics. Both the estimation and hypothesis testing issues are discussed for the nonparametric and semiparametric regression models. A discussion on the choice of windowwidth is also presented.
Resumo:
The heteroskedasticity-consistent covariance matrix estimator proposed by White (1980), also known as HC0, is commonly used in practical applications and is implemented into a number of statistical software. Cribari–Neto, Ferrari & Cordeiro (2000) have developed a bias-adjustment scheme that delivers bias-corrected White estimators. There are several variants of the original White estimator that also commonly used by practitioners. These include the HC1, HC2 and HC3 estimators, which have proven to have superior small-sample behavior relative to White’s estimator. This paper defines a general bias-correction mechamism that can be applied not only to White’s estimator, but to variants of this estimator as well, such as HC1, HC2 and HC3. Numerical evidence on the usefulness of the proposed corrections is also presented. Overall, the results favor the sequence of improved HC2 estimators.
Resumo:
Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.
Resumo:
This paper proposes unit tests based on partially adaptive estimation. The proposed tests provide an intermediate class of inference procedures that are more efficient than the traditional OLS-based methods and simpler than unit root tests based on fully adptive estimation using nonparametric methods. The limiting distribution of the proposed test is a combination of standard normal and the traditional Dickey-Fuller (DF) distribution, including the traditional ADF test as a special case when using Gaussian density. Taking into a account the well documented characteristic of heavy-tail behavior in economic and financial data, we consider unit root tests coupled with a class of partially adaptive M-estimators based on the student-t distributions, wich includes te normal distribution as a limiting case. Monte Carlo Experiments indicate that, in the presence of heavy tail distributions or innovations that are contaminated by outliers, the proposed test is more powerful than the traditional ADF test. We apply the proposed test to several macroeconomic time series that have heavy-tailed distributions. The unit root hypothesis is rejected in U.S. real GNP, supporting the literature of transitory shocks in output. However, evidence against unit roots is not found in real exchange rate and nominal interest rate even haevy-tail is taken into a account.
Resumo:
O presente texto desenvolve, com fins didáticos, as aplicações do Método Generalizado dos Momentos (MGM) ao procedimento de variáveis instrumentais, em modelos lineares e não-lineares. Faz parte de obra (livro) em elaboração
Resumo:
This thesis is composed of three essays referent to the subjects of macroeconometrics and Önance. In each essay, which corresponds to one chapter, the objective is to investigate and analyze advanced econometric techniques, applied to relevant macroeconomic questions, such as the capital mobility hypothesis and the sustainability of public debt. A Önance topic regarding portfolio risk management is also investigated, through an econometric technique used to evaluate Value-at-Risk models. The Örst chapter investigates an intertemporal optimization model to analyze the current account. Based on Campbell & Shillerís (1987) approach, a Wald test is conducted to analyze a set of restrictions imposed to a VAR used to forecast the current account. The estimation is based on three di§erent procedures: OLS, SUR and the two-way error decomposition of Fuller & Battese (1974), due to the presence of global shocks. A note on Granger causality is also provided, which is shown to be a necessary condition to perform the Wald test with serious implications to the validation of the model. An empirical exercise for the G-7 countries is presented, and the results substantially change with the di§erent estimation techniques. A small Monte Carlo simulation is also presented to investigate the size and power of the Wald test based on the considered estimators. The second chapter presents a study about Öscal sustainability based on a quantile autoregression (QAR) model. A novel methodology to separate periods of nonstationarity from stationary ones is proposed, which allows one to identify trajectories of public debt that are not compatible with Öscal sustainability. Moreover, such trajectories are used to construct a debt ceiling, that is, the largest value of public debt that does not jeopardize long-run Öscal sustainability. An out-of-sample forecast of such a ceiling is also constructed, and can be used by policy makers interested in keeping the public debt on a sustainable path. An empirical exercise by using Brazilian data is conducted to show the applicability of the methodology. In the third chapter, an alternative backtest to evaluate the performance of Value-at-Risk (VaR) models is proposed. The econometric methodology allows one to directly test the overall performance of a VaR model, as well as identify periods of an increased risk exposure, which seems to be a novelty in the literature. Quantile regressions provide an appropriate environment to investigate VaR models, since they can naturally be viewed as a conditional quantile function of a given return series. An empirical exercise is conducted for daily S&P500 series, and a Monte Carlo simulation is also presented, revealing that the proposed test might exhibit more power in comparison to other backtests.
Resumo:
Este trabalho tem por objetivo identificar os coeficientes sazonais de algumas variáveis econômicas (produção industrial, exportações e importações), isentos das mudanças estruturais registradas na economia. O estudo verifica se os planos de estabilização implementados pelo governo nos últimos quinze anos afetaram o padrão sazonal daquelas séries. Para tanto aplica-se o X-12-ARIMA, o novo método de dessazonalização de séries desenvolvido pelo U.S. Bureau of the Census. O uso desse método torna-se necessário, porque os demais métodos conhecidos impedem testar nossa hipótese, ao não permitirem o emprego de intervenções, não obtendo assim os melhores estimadores para os coeficientes sazonais. O estudo cobre o período que vai de 1980 a 1997 e os resultados confirmam a nossa hipótese de mudança no padrão sazonal no período. As nossas variáveis econômicas foram - de um ou de outro modo - atingidas pelos planos de estabilização implementados nos últimos quinze anos.
Resumo:
A pesquisa testa a existência, no mercado futuro brasileiro, do fenômeno que Keynes denominou de normal backwardation, isto é, a hipótese de que os preços futuros não são estimadores não viesados (unbiased estimators) do preço à vista esperado para o futuro. Quatro contratos futuros negociados na BM&F Bolsa de Mercadorias e Futuros foram estudados, a saber, futuro de Ibovespa, futuro de dólar comercial, futuro de boi gordo e futuro de café arábica, cobrindo o período de julho de 1994 a setembro de 1997. Cada contrato futuro citado foi submetido a quatro testes, sugeridos pelas implicações da hipótese de Keynes. Nossos resultados indicam que normal backwardation não é normal no mercado futuro brasileiro, repetindo as conclusões de vários estudos internacionais.
Resumo:
A pesquisa sobre o perfil da indústria de alimentos no período de 1990-95 observou uma superior participação do grupo de produtos de maior valor agregado, com destaque para os laticínios, assim como um aumento do consumo de alimentos em geral propiciado pelo aumento da renda real dos trabalhadores após o Plano Real. Constataram-se, também, ajustes aos novos padrões de competitividade devido à abertura de mercado, com conseqüências na diminuição das margens líquidas e do número de emprego.
Resumo:
O trabalho doméstico é a ocupação da maioria das trabalhadoras brasileiras. São cerca de 6 milhões de mulheres empregadas nesta ocupação. Este estudo tem como objetivo analisar a mobilidade ocupacional e as conseqüências em termos de rendimento destas trabalhadoras. O objetivo do trabalho é examinar até que ponto o fato de tido o primeiro emprego como empregada doméstica afeta as trabalhadoras na escolha futura de suas ocupações. Estima-se o efeito do primeiro emprego como trabalhadora doméstica sobre a probabilidade de ter a ocupação de doméstica atualmente. O método escolhido foi o de variáveis instrumentais de modo a controlar o viés de endogeneidade entre a escolha da primeira ocupação e a ocupação atual. Os instrumentos escolhidos foram: número de escolas por criança em idade escolar, número de professores por escola e PIB per capita. Supõe-se que estes instrumentos sejam proxies para os custos diretos da educação e para o custo de oportunidade das mulheres. Os resultados mostram que o fato de ter tido como primeiro emprego o trabalho doméstico aumenta a probabilidade das trabalhadoras permanecerem nesta mesma ocupação em comparação com quem não começou como doméstica. Quando o resultado é comparado com a estimação pelo Método de Mínimos Quadrados, ou seja, sem controlar por um possível viés de endogeneidade, o resultado é três vezes maior. Estes resultados sugerem uma imobilidade ocupacional onde a escolha de inserção como empregada doméstica pode levar a uma armadilha de ocupação. Para tentar identificar possíveis efeitos que a primeira ocupação de doméstica pode ter sobre os rendimentos das trabalhadoras na sua ocupação atual a estimação pelo método de mínimos quadrados mostrou que o primeiro emprego como doméstica teria como efeito diminuir em 13% os rendimentos das trabalhadoras em comparação com quem não começou como doméstica. Já a estimação pelo método de variáveis instrumentais não mostrou um efeito estatisticamente significante. Além disso, também não foram encontrados resultados estatisticamente significantes quando a amostra foi restringida apenas para trabalhadoras que não tinham a ocupação atual de doméstica. Estes resultados sugerem que apesar da imobilidade ocupacional observada, não haveria diferenças em relação do rendimento atual das trabalhadoras.
Resumo:
This paper presents semiparametric estimators of changes in inequality measures of a dependent variable distribution taking into account the possible changes on the distributions of covariates. When we do not impose parametric assumptions on the conditional distribution of the dependent variable given covariates, this problem becomes equivalent to estimation of distributional impacts of interventions (treatment) when selection to the program is based on observable characteristics. The distributional impacts of a treatment will be calculated as differences in inequality measures of the potential outcomes of receiving and not receiving the treatment. These differences are called here Inequality Treatment Effects (ITE). The estimation procedure involves a first non-parametric step in which the probability of receiving treatment given covariates, the propensity-score, is estimated. Using the inverse probability weighting method to estimate parameters of the marginal distribution of potential outcomes, in the second step weighted sample versions of inequality measures are computed. Root-N consistency, asymptotic normality and semiparametric efficiency are shown for the semiparametric estimators proposed. A Monte Carlo exercise is performed to investigate the behavior in finite samples of the estimator derived in the paper. We also apply our method to the evaluation of a job training program.
Resumo:
Neste trabalho apresentamos evidência sobre os efeitos da alfabetização de adultos na renda e probabilidade de empregos dos indivíduos. Os dados longitudinais disponibilizados pela Pesquisa Mensal de Emprego (PME) permitem controlar os efeitos fixos não-observáveis dos indivíduos gerando uma estimação mais robusta e consistente dos efeitos analisados. De modo geral, os resultados deste trabalho indicam retorno de 9,3% em rendimentos para indivíduos que se alfabetizam. Mostramos evidência que sugerem que esse efeito no salário se deve a acréscimos de produtividade e não por um aumento na formalização dos trabalhadores alfabetizados. Ademais, observamos que o efeito na renda é mais proeminente em certos grupos de indivíduos: mulheres, residentes de Salvador e pessoas entre 45 e 60 anos
Resumo:
Essa dissertação apresenta estimativas para a elasticidade-preço da demanda por aço no Brasil, a partir de dados agregados e desagregados da indústria siderúrgica. Os resultados das estimativas a partir do painel com dados desagregados sugerem que existe um viés de agregação nas estimativas já realizadas a partir de dados agregados, e esse viés subestimaria a elasticidade-preço do setor siderúrgico. Com a finalidade de comparar as relações entre as elasticidades-preços de curto e longo prazo foram estimados painéis heterogêneos dinâmicos, através de estimadores Mean Group (MG) e Pooled Mean Group (PMG). É importante ressaltar que, de acordo com o conhecimento do autor, este é o primeiro estudo a usar estimação em painel para estimação da elasticidade-preço da demanda por produtos siderúrgicos no Brasil, dessa forma, controlando a estimativa pela heterogeneidade entre os tipos de aço.
Resumo:
Convex combinations of long memory estimates using the same data observed at different sampling rates can decrease the standard deviation of the estimates, at the cost of inducing a slight bias. The convex combination of such estimates requires a preliminary correction for the bias observed at lower sampling rates, reported by Souza and Smith (2002). Through Monte Carlo simulations, we investigate the bias and the standard deviation of the combined estimates, as well as the root mean squared error (RMSE), which takes both into account. While comparing the results of standard methods and their combined versions, the latter achieve lower RMSE, for the two semi-parametric estimators under study (by about 30% on average for ARFIMA(0,d,0) series).
Resumo:
We examine bivariate extensions of Aït-Sahalia’s approach to the estimation of univariate diffusions. Our message is that extending his idea to a bivariate setting is not straightforward. In higher dimensions, as opposed to the univariate case, the elements of the Itô and Fokker-Planck representations do not coincide; and, even imposing sensible assumptions on the marginal drifts and volatilities is not sufficient to obtain direct generalisations. We develop exploratory estimation and testing procedures, by parametrizing the drifts of both component processes and setting restrictions on the terms of either the Itô or the Fokker-Planck covariance matrices. This may lead to highly nonlinear ordinary differential equations, where the definition of boundary conditions is crucial. For the methods developed, the Fokker-Planck representation seems more tractable than the Itô’s. Questions for further research include the design of regularity conditions on the time series dependence in the data, the kernels actually used and the bandwidths, to obtain asymptotic properties for the estimators proposed. A particular case seems promising: “causal bivariate models” in which only one of the diffusions contributes to the volatility of the other. Hedging strategies which estimate separately the univariate diffusions at stake may thus be improved.