601 resultados para Estimators


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Solutions to combinatorial optimization problems, such as problems of locating facilities, frequently rely on heuristics to minimize the objective function. The optimum is sought iteratively and a criterion is needed to decide when the procedure (almost) attains it. Pre-setting the number of iterations dominates in OR applications, which implies that the quality of the solution cannot be ascertained. A small, almost dormant, branch of the literature suggests using statistical principles to estimate the minimum and its bounds as a tool to decide upon stopping and evaluating the quality of the solution. In this paper we examine the functioning of statistical bounds obtained from four different estimators by using simulated annealing on p-median test problems taken from Beasley’s OR-library. We find the Weibull estimator and the 2nd order Jackknife estimator preferable and the requirement of sample size to be about 10 being much less than the current recommendation. However, reliable statistical bounds are found to depend critically on a sample of heuristic solutions of high quality and we give a simple statistic useful for checking the quality. We end the paper with an illustration on using statistical bounds in a problem of locating some 70 distribution centers of the Swedish Post in one Swedish region. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The FE ('fixed effects') estimator of technical inefficiency performs poorly when N ('number of firms') is large and T ('number of time observations') is small. We propose estimators of both the firm effects and the inefficiencies, which have small sample gains compared to the traditional FE estimator. The estimators are based on nonparametric kernel regression of unordered variables, which includes the FE estimator as a special case. In terms of global conditional MSE ('mean square error') criterions, it is proved that there are kernel estimators which are efficient to the FE estimators of firm effects and inefficiencies, in finite samples. Monte Carlo simulations supports our theoretical findings and in an empirical example it is shown how the traditional FE estimator and the proposed kernel FE estimator lead to very different conclusions about inefficiency of Indonesian rice farmers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Despite success in reducing poverty over the last twenty years, inequality in Chile has remained virtually unchanged, making Chile one of the least equal countries in the world. High levels of inequality have been shown to hamper further reductions in poverty as well as economic growth and local inequality has been shown to affect such outcomes as violence and health. The study of inequality at the local level is thus crucial for understanding the economic well-being of a country. Local measures of inequality have been difficult to obtain, but recent theoretical advances have enabled the combination of survey and census data to obtain estimators of inequality that are robust at disaggregated geographic levels. In this paper, we employ this methodology to produce consistent estimators of inequality for every county in Chile. We find a great deal of variation in inequality, with county-level Gini coefficients ranging from 0.41 to 0.63.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes unit tests based on partially adaptive estimation. The proposed tests provide an intermediate class of inference procedures that are more efficient than the traditional OLS-based methods and simpler than unit root tests based on fully adptive estimation using nonparametric methods. The limiting distribution of the proposed test is a combination of standard normal and the traditional Dickey-Fuller (DF) distribution, including the traditional ADF test as a special case when using Gaussian density. Taking into a account the well documented characteristic of heavy-tail behavior in economic and financial data, we consider unit root tests coupled with a class of partially adaptive M-estimators based on the student-t distributions, wich includes te normal distribution as a limiting case. Monte Carlo Experiments indicate that, in the presence of heavy tail distributions or innovations that are contaminated by outliers, the proposed test is more powerful than the traditional ADF test. We apply the proposed test to several macroeconomic time series that have heavy-tailed distributions. The unit root hypothesis is rejected in U.S. real GNP, supporting the literature of transitory shocks in output. However, evidence against unit roots is not found in real exchange rate and nominal interest rate even haevy-tail is taken into a account.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente texto desenvolve, com fins didáticos, as aplicações do Método Generalizado dos Momentos (MGM) ao procedimento de variáveis instrumentais, em modelos lineares e não-lineares. Faz parte de obra (livro) em elaboração

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is composed of three essays referent to the subjects of macroeconometrics and Önance. In each essay, which corresponds to one chapter, the objective is to investigate and analyze advanced econometric techniques, applied to relevant macroeconomic questions, such as the capital mobility hypothesis and the sustainability of public debt. A Önance topic regarding portfolio risk management is also investigated, through an econometric technique used to evaluate Value-at-Risk models. The Örst chapter investigates an intertemporal optimization model to analyze the current account. Based on Campbell & Shillerís (1987) approach, a Wald test is conducted to analyze a set of restrictions imposed to a VAR used to forecast the current account. The estimation is based on three di§erent procedures: OLS, SUR and the two-way error decomposition of Fuller & Battese (1974), due to the presence of global shocks. A note on Granger causality is also provided, which is shown to be a necessary condition to perform the Wald test with serious implications to the validation of the model. An empirical exercise for the G-7 countries is presented, and the results substantially change with the di§erent estimation techniques. A small Monte Carlo simulation is also presented to investigate the size and power of the Wald test based on the considered estimators. The second chapter presents a study about Öscal sustainability based on a quantile autoregression (QAR) model. A novel methodology to separate periods of nonstationarity from stationary ones is proposed, which allows one to identify trajectories of public debt that are not compatible with Öscal sustainability. Moreover, such trajectories are used to construct a debt ceiling, that is, the largest value of public debt that does not jeopardize long-run Öscal sustainability. An out-of-sample forecast of such a ceiling is also constructed, and can be used by policy makers interested in keeping the public debt on a sustainable path. An empirical exercise by using Brazilian data is conducted to show the applicability of the methodology. In the third chapter, an alternative backtest to evaluate the performance of Value-at-Risk (VaR) models is proposed. The econometric methodology allows one to directly test the overall performance of a VaR model, as well as identify periods of an increased risk exposure, which seems to be a novelty in the literature. Quantile regressions provide an appropriate environment to investigate VaR models, since they can naturally be viewed as a conditional quantile function of a given return series. An empirical exercise is conducted for daily S&P500 series, and a Monte Carlo simulation is also presented, revealing that the proposed test might exhibit more power in comparison to other backtests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo identificar os coeficientes sazonais de algumas variáveis econômicas (produção industrial, exportações e importações), isentos das mudanças estruturais registradas na economia. O estudo verifica se os planos de estabilização implementados pelo governo nos últimos quinze anos afetaram o padrão sazonal daquelas séries. Para tanto aplica-se o X-12-ARIMA, o novo método de dessazonalização de séries desenvolvido pelo U.S. Bureau of the Census. O uso desse método torna-se necessário, porque os demais métodos conhecidos impedem testar nossa hipótese, ao não permitirem o emprego de intervenções, não obtendo assim os melhores estimadores para os coeficientes sazonais. O estudo cobre o período que vai de 1980 a 1997 e os resultados confirmam a nossa hipótese de mudança no padrão sazonal no período. As nossas variáveis econômicas foram - de um ou de outro modo - atingidas pelos planos de estabilização implementados nos últimos quinze anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa testa a existência, no mercado futuro brasileiro, do fenômeno que Keynes denominou de normal backwardation, isto é, a hipótese de que os preços futuros não são estimadores não viesados (unbiased estimators) do preço à vista esperado para o futuro. Quatro contratos futuros negociados na BM&F Bolsa de Mercadorias e Futuros foram estudados, a saber, futuro de Ibovespa, futuro de dólar comercial, futuro de boi gordo e futuro de café arábica, cobrindo o período de julho de 1994 a setembro de 1997. Cada contrato futuro citado foi submetido a quatro testes, sugeridos pelas implicações da hipótese de Keynes. Nossos resultados indicam que normal backwardation não é normal no mercado futuro brasileiro, repetindo as conclusões de vários estudos internacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho doméstico é a ocupação da maioria das trabalhadoras brasileiras. São cerca de 6 milhões de mulheres empregadas nesta ocupação. Este estudo tem como objetivo analisar a mobilidade ocupacional e as conseqüências em termos de rendimento destas trabalhadoras. O objetivo do trabalho é examinar até que ponto o fato de tido o primeiro emprego como empregada doméstica afeta as trabalhadoras na escolha futura de suas ocupações. Estima-se o efeito do primeiro emprego como trabalhadora doméstica sobre a probabilidade de ter a ocupação de doméstica atualmente. O método escolhido foi o de variáveis instrumentais de modo a controlar o viés de endogeneidade entre a escolha da primeira ocupação e a ocupação atual. Os instrumentos escolhidos foram: número de escolas por criança em idade escolar, número de professores por escola e PIB per capita. Supõe-se que estes instrumentos sejam proxies para os custos diretos da educação e para o custo de oportunidade das mulheres. Os resultados mostram que o fato de ter tido como primeiro emprego o trabalho doméstico aumenta a probabilidade das trabalhadoras permanecerem nesta mesma ocupação em comparação com quem não começou como doméstica. Quando o resultado é comparado com a estimação pelo Método de Mínimos Quadrados, ou seja, sem controlar por um possível viés de endogeneidade, o resultado é três vezes maior. Estes resultados sugerem uma imobilidade ocupacional onde a escolha de inserção como empregada doméstica pode levar a uma armadilha de ocupação. Para tentar identificar possíveis efeitos que a primeira ocupação de doméstica pode ter sobre os rendimentos das trabalhadoras na sua ocupação atual a estimação pelo método de mínimos quadrados mostrou que o primeiro emprego como doméstica teria como efeito diminuir em 13% os rendimentos das trabalhadoras em comparação com quem não começou como doméstica. Já a estimação pelo método de variáveis instrumentais não mostrou um efeito estatisticamente significante. Além disso, também não foram encontrados resultados estatisticamente significantes quando a amostra foi restringida apenas para trabalhadoras que não tinham a ocupação atual de doméstica. Estes resultados sugerem que apesar da imobilidade ocupacional observada, não haveria diferenças em relação do rendimento atual das trabalhadoras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents semiparametric estimators of changes in inequality measures of a dependent variable distribution taking into account the possible changes on the distributions of covariates. When we do not impose parametric assumptions on the conditional distribution of the dependent variable given covariates, this problem becomes equivalent to estimation of distributional impacts of interventions (treatment) when selection to the program is based on observable characteristics. The distributional impacts of a treatment will be calculated as differences in inequality measures of the potential outcomes of receiving and not receiving the treatment. These differences are called here Inequality Treatment Effects (ITE). The estimation procedure involves a first non-parametric step in which the probability of receiving treatment given covariates, the propensity-score, is estimated. Using the inverse probability weighting method to estimate parameters of the marginal distribution of potential outcomes, in the second step weighted sample versions of inequality measures are computed. Root-N consistency, asymptotic normality and semiparametric efficiency are shown for the semiparametric estimators proposed. A Monte Carlo exercise is performed to investigate the behavior in finite samples of the estimator derived in the paper. We also apply our method to the evaluation of a job training program.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos evidência sobre os efeitos da alfabetização de adultos na renda e probabilidade de empregos dos indivíduos. Os dados longitudinais disponibilizados pela Pesquisa Mensal de Emprego (PME) permitem controlar os efeitos fixos não-observáveis dos indivíduos gerando uma estimação mais robusta e consistente dos efeitos analisados. De modo geral, os resultados deste trabalho indicam retorno de 9,3% em rendimentos para indivíduos que se alfabetizam. Mostramos evidência que sugerem que esse efeito no salário se deve a acréscimos de produtividade e não por um aumento na formalização dos trabalhadores alfabetizados. Ademais, observamos que o efeito na renda é mais proeminente em certos grupos de indivíduos: mulheres, residentes de Salvador e pessoas entre 45 e 60 anos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação apresenta estimativas para a elasticidade-preço da demanda por aço no Brasil, a partir de dados agregados e desagregados da indústria siderúrgica. Os resultados das estimativas a partir do painel com dados desagregados sugerem que existe um viés de agregação nas estimativas já realizadas a partir de dados agregados, e esse viés subestimaria a elasticidade-preço do setor siderúrgico. Com a finalidade de comparar as relações entre as elasticidades-preços de curto e longo prazo foram estimados painéis heterogêneos dinâmicos, através de estimadores Mean Group (MG) e Pooled Mean Group (PMG). É importante ressaltar que, de acordo com o conhecimento do autor, este é o primeiro estudo a usar estimação em painel para estimação da elasticidade-preço da demanda por produtos siderúrgicos no Brasil, dessa forma, controlando a estimativa pela heterogeneidade entre os tipos de aço.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Convex combinations of long memory estimates using the same data observed at different sampling rates can decrease the standard deviation of the estimates, at the cost of inducing a slight bias. The convex combination of such estimates requires a preliminary correction for the bias observed at lower sampling rates, reported by Souza and Smith (2002). Through Monte Carlo simulations, we investigate the bias and the standard deviation of the combined estimates, as well as the root mean squared error (RMSE), which takes both into account. While comparing the results of standard methods and their combined versions, the latter achieve lower RMSE, for the two semi-parametric estimators under study (by about 30% on average for ARFIMA(0,d,0) series).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We examine bivariate extensions of Aït-Sahalia’s approach to the estimation of univariate diffusions. Our message is that extending his idea to a bivariate setting is not straightforward. In higher dimensions, as opposed to the univariate case, the elements of the Itô and Fokker-Planck representations do not coincide; and, even imposing sensible assumptions on the marginal drifts and volatilities is not sufficient to obtain direct generalisations. We develop exploratory estimation and testing procedures, by parametrizing the drifts of both component processes and setting restrictions on the terms of either the Itô or the Fokker-Planck covariance matrices. This may lead to highly nonlinear ordinary differential equations, where the definition of boundary conditions is crucial. For the methods developed, the Fokker-Planck representation seems more tractable than the Itô’s. Questions for further research include the design of regularity conditions on the time series dependence in the data, the kernels actually used and the bandwidths, to obtain asymptotic properties for the estimators proposed. A particular case seems promising: “causal bivariate models” in which only one of the diffusions contributes to the volatility of the other. Hedging strategies which estimate separately the univariate diffusions at stake may thus be improved.