890 resultados para Debray, Regis
Resumo:
This paper proposes unit tests based on partially adaptive estimation. The proposed tests provide an intermediate class of inference procedures that are more efficient than the traditional OLS-based methods and simpler than unit root tests based on fully adptive estimation using nonparametric methods. The limiting distribution of the proposed test is a combination of standard normal and the traditional Dickey-Fuller (DF) distribution, including the traditional ADF test as a special case when using Gaussian density. Taking into a account the well documented characteristic of heavy-tail behavior in economic and financial data, we consider unit root tests coupled with a class of partially adaptive M-estimators based on the student-t distributions, wich includes te normal distribution as a limiting case. Monte Carlo Experiments indicate that, in the presence of heavy tail distributions or innovations that are contaminated by outliers, the proposed test is more powerful than the traditional ADF test. We apply the proposed test to several macroeconomic time series that have heavy-tailed distributions. The unit root hypothesis is rejected in U.S. real GNP, supporting the literature of transitory shocks in output. However, evidence against unit roots is not found in real exchange rate and nominal interest rate even haevy-tail is taken into a account.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular it delivers a zero-limiting mean-squared error if the number of forecasts and the number of post-sample time periods is sufficiently large. We also develop a zero-mean test for the average bias. Monte-Carlo simulations are conducted to evaluate the performance of this new technique in finite samples. An empirical exercise, based upon data from well known surveys is also presented. Overall, these results show promise for the bias-corrected average forecast.
Resumo:
In this paper, we compare four different Value-at-Risk (V aR) methodologies through Monte Carlo experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust methodologies have higher probability to predict V aRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate V aR for returns of S˜ao Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.
Resumo:
While it is recognized that output fuctuations are highly persistent over certain range, less persistent results are also found around very long horizons (Conchrane, 1988), indicating the existence of local or temporary persistency. In this paper, we study time series with local persistency. A test for stationarity against locally persistent alternative is proposed. Asymptotic distributions of the test statistic are provided under both the null and the alternative hypothesis of local persistency. Monte Carlo experiment is conducted to study the power and size of the test. An empirical application reveals that many US real economic variables may exhibit local persistency.
Resumo:
In this paper, we show that the widely used stationarity tests such as the KPSS test have power close to size in the presence of time-varying unconditional variance. We propose a new test as a complement of the existing tests. Monte Carlo experiments show that the proposed test possesses the following characteristics: (i) In the presence of unit root or a structural change in the mean, the proposed test is as powerful as the KPSS and other tests; (ii) In the presence a changing variance, the traditional tests perform badly whereas the proposed test has high power comparing to the existing tests; (iii) The proposed test has the same size as traditional stationarity tests under the null hypothesis of stationarity. An application to daily observations of return on US Dollar/Euro exchange rate reveals the existence of instability in the unconditional variance when the entire sample is considered, but stability is found in subsamples.
Resumo:
This paper investigates the presence of long memory in financiaI time series using four test statistics: V/S, KPSS, KS and modified R/S. There has been a large amount of study on the long memory behavior in economic and financiaI time series. However, there is still no consensus. We argue in this paper that spurious short-term memory may be found due to the incorrect use of data-dependent bandwidth to estimating the longrun variance. We propose a partially adaptive lag truncation procedure that is robust against the presence of long memory under the alternative hypothesis and revisit several economic and financiaI time series using the proposed bandwidth choice. Our results indicate the existence of spurious short memory in real exchange rates when Andrews' formula is employed, but long memory is detected when the proposed lag truncation procedure is used. Using stock market data, we also found short memory in returns and long memory in volatility.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise, based upon data from a well known survey is also presented. Overall, these results show promise for the feasible bias-corrected average forecast.
Resumo:
Considerando a relevância do tema Finanças Públicas para a economia Brasileira, este estudo contribui com o debate envolvendo a sustentabilidade da dívida pública e a alocação e distribuição dos recursos públicos no Brasil. A partir de dados para as finanças públicas nacionais compreendendo o período 1947-1999 o primeiro capítulo contribui com o debate acerca da sustentabilidade da dívida pública brasileira considerando a existência de efeitos não lineares na série de déficit público. O segundo capítulo faz uma pausa na discussão sobre o tema dívida pública e aborda a questão dos determinantes políticos e econômicos da alocação dos recursos públicos no Brasil, explicitando como os governantes lidam com o trade-off existente entre promoção da equidade e consecução de seus objetivos políticos. Finalmente, considerando a evolução da literatura relacionada ao tema abordado no primeiro capítulo, o terceiro capítulo apresenta uma abordagem alternativa para investigação da sustentabilidade da dívida pública nacional e uma aplicação para a Dívida Líquida do Setor Público (DLSP) entre 1991 e 2007. Deste modo são apresentados os avanços da técnica econométrica a partir das vantagens em relação às abordagens tradicionais e um novo diagnóstico para a solvência do setor público no Brasil.
Resumo:
Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.
Resumo:
This thesis is composed of three essays referent to the subjects of macroeconometrics and Önance. In each essay, which corresponds to one chapter, the objective is to investigate and analyze advanced econometric techniques, applied to relevant macroeconomic questions, such as the capital mobility hypothesis and the sustainability of public debt. A Önance topic regarding portfolio risk management is also investigated, through an econometric technique used to evaluate Value-at-Risk models. The Örst chapter investigates an intertemporal optimization model to analyze the current account. Based on Campbell & Shillerís (1987) approach, a Wald test is conducted to analyze a set of restrictions imposed to a VAR used to forecast the current account. The estimation is based on three di§erent procedures: OLS, SUR and the two-way error decomposition of Fuller & Battese (1974), due to the presence of global shocks. A note on Granger causality is also provided, which is shown to be a necessary condition to perform the Wald test with serious implications to the validation of the model. An empirical exercise for the G-7 countries is presented, and the results substantially change with the di§erent estimation techniques. A small Monte Carlo simulation is also presented to investigate the size and power of the Wald test based on the considered estimators. The second chapter presents a study about Öscal sustainability based on a quantile autoregression (QAR) model. A novel methodology to separate periods of nonstationarity from stationary ones is proposed, which allows one to identify trajectories of public debt that are not compatible with Öscal sustainability. Moreover, such trajectories are used to construct a debt ceiling, that is, the largest value of public debt that does not jeopardize long-run Öscal sustainability. An out-of-sample forecast of such a ceiling is also constructed, and can be used by policy makers interested in keeping the public debt on a sustainable path. An empirical exercise by using Brazilian data is conducted to show the applicability of the methodology. In the third chapter, an alternative backtest to evaluate the performance of Value-at-Risk (VaR) models is proposed. The econometric methodology allows one to directly test the overall performance of a VaR model, as well as identify periods of an increased risk exposure, which seems to be a novelty in the literature. Quantile regressions provide an appropriate environment to investigate VaR models, since they can naturally be viewed as a conditional quantile function of a given return series. An empirical exercise is conducted for daily S&P500 series, and a Monte Carlo simulation is also presented, revealing that the proposed test might exhibit more power in comparison to other backtests.
Resumo:
O objetivo do presente estudo é avaliar a existência de quebra estrutural no Value-at-Risk (VaR) das empresas que negociam suas ações na bolsa de valores de Nova Iorque (NYSE). O evento que justi ca a suspeita de mudança estrutural é a lei de governança corporativa conhecida como Sarbanes-Oxley Act (ou simplesmente SOX), a mais profunda reforma implementada no sistema de legislação nanceira dos Estados Unidos desde 1934. A metodologia empregada é baseada em um teste de quebra estrutural endógeno para modelos de regressão quantílica. A amostra foi composta de 176 companhias com registro ativo na NYSE e foi analisado o VaR de 1%, 5% e 10% de cada uma delas. Os resultados obtidos apontam uma ligação da SOX com o ponto de quebra estrutural mais notável nos VaRs de 10% e 5%, tomando-se como base a concentração das quebras no período de um ano após a implementação da SOX, a partir do teste de Qu(2007). Utilizando o mesmo critério para o VaR de 1%, a relação encontrada não foi tão forte quanto nos outros dois casos, possivelmente pelo fato de que para uma exposição ao risco tão extrema, fatores mais especí cos relacionados à companhia devem ter maior importância do que as informações gerais sobre o mercado e a economia, incluídas na especi cação do VaR. Encontrou-se ainda uma forte relação entre certas características como tamanho, liquidez e representação no grupo industrial e o impacto da SOX no VaR.
Resumo:
O presente trabalho teve como objetivo geral desenvolver estratégia de manejo da adubação nitrogenada em milho para maior eficiência agronomica e menor impacto ambiental com a sua aplicação.
Resumo:
Este trabalho procura compreender um ambiente de negócios bastante específico. As empresas, diante dos fenômenos da globalização e do crescimento das exigências impostas pelos consumidores (produtos melhores a preços mais baixos), buscarão diversas soluções para enfrentar estes desafios. Soluções para otimizar as suas redes de suprimentos serão uma das possíveis respostas para este problema. As redes de suprimentos, quanto mais eficazes, estarão agregando mais valor ao produto final causando um impacto mínimo nos custos do produto, e terão uma papel importante na estratégia da empresa para vencer este desafio. Ao longo dessa dissertação serão avaliadas as relações existentes entre cliente e fornecedor e focadas algumas variáveis que influenciam este relacionamento. Através da análise das estratégias de verticalização, estaremos avaliando outras possibilidades de fornecimento que possam ser mais atraentes para as empresas, no que diz respeito à gerência de sua rede de fornecedores. O trabalho está centrado na análise da estratégia de verticalização e como são criadas as condições que favorecem a desverticalização, conduzindo a empresa para a solução de fornecimento através de uma produção "in house". O setor industrial será tomado como exemplo deste tipo de relacionamento, mais especificamente, o segmento de produção de embalagens plásticas. A produção "in house" , como será descrito mais detalhadamente adiante, se estabelece da seguinte forma: uma unidade produtiva de um fornecedor estratégico é construída dentro do ambiente físico do cliente. Desse local, o fornecedor supre as necessidades do cliente de um ou diversos itens necessários para a realização da sua atividade industrial. Diversas questões serão exploradas neste trabalho, dentre elas, em que situações vale a pena manter uma operação integrada verticalmente ou optar pela terceirização desta operação, que um dia foi verticalizada? Sob que condições esta seria uma boa solução para o fornecimento de insumos básicos para a produção? Este trabalho se desenvolverá a partir de uma pesquisa bibliográfica assim como de um trabalho de campo, envolvendo a análise de diversas situações reais. vi Como identificar se a verticalização de um segmento oferecerá as vantagens esperadas? Quais são os principais fatores que devemos levar em conta para esta análise? Que tipo de modelo de desverticalização pode ser o mais adequado para a empresa cliente? Que medidas podem ser promovidas para se incrementar uma relação com o fornecedor "in house" ? Este estudo apresenta algumas propostas para responder às questões acima.
Resumo:
A corrupção e a ineficiência estatais são problemas recorrentes da administração pública brasileira, sempre a ocupar espaço na imprensa. Diversas instituições, entre as quais a própria imprensa, se ocupam de buscar a melhoria da gestão dos recursos públicos, pelo combate à corrupção e ao desperdício. Mas há uma instituição, o Tribunal de Contas, que existe exatamente com a missão de garantir o bom uso dos recursos públicos. É uma árdua missão como demonstram as notícias de jornais, e que não vem sendo cumprida a contento. O controle exercido pelo Tribunal de Contas é efetuado quanto aos aspectos da regularidade e do mérito na arrecadação, guarda e aplicação dos recursos públicos. No complexo ambiente em que opera, o Tribunal de Contas só conseguirá exercer com plenitude seu papel se compreender este ambiente, formulando as estratégias adequadas para sua atuação. Isto inclui decidir sobre como exercer o controle e qual aspecto deve ser enfatizado. Este trabalho busca fornecer subsídios para esta compreensão, bem como sugestões para que o Tribunal possa melhor cumprir seu papel, de acordo com a natureza contemporânea de sua missão.
Resumo:
O objetivo foi de avaliar os efeitos da intensidade do ganho de peso no período de recria, dos 13 aos 18 meses de idade, sobre a taxa de prenhez (TP) de novilhas de corte mantidas em pastagem nativa e acasaladas no sobreano durante o outono. O período experimental foi compreendido entre 15/11/2002 à 20/09/2003, sendo a recria, de 15/11/2002 à 23/04/2003 e o acasalamento, de 24/04/2003 à 07/06/2003. Os tratamentos foram constituídos em: 20 novilhas com peso médio de 208 kg submetidas a um ganho diário médio (GDM) de 0,595 kg/dia (G600); 23 novilhas com peso médio de 197 kg submetidas a um GDM de 0,656 kg/dia (G700) e 24 novilhas com peso médio de 181 kg submetidas a um GDM de 0,723 kg/dia (G800). Os GDM foram estabelecidos para que todos os animais atingissem, aproximadamente, 300 kg ao início da estação de monta. Foram avaliados os efeitos dos tratamentos sobre o peso, a altura da garupa (AG), o perímetro torácico (PT), a relação peso:altura (PA), o escore de trato reprodutivo (ETR) e sobre a TP. Não foram observadas diferenças (P>0,05) no incremento da AG (GAG) e do PT (GPT) e na PA, ao início do acasalamento, em relação aos grupos experimentais. O peso vivo foi altamente correlacionado (P<0,05) com a AG, PT e PA ao longo de todo o período de recria. As taxas de prenhez foram 30,0, 47,8 e 50,0% para os grupos G600, G700 e G800, respectivamente, não existindo diferença significativa entre os grupos (P>0,05). Os grupos G700 e G800, submetidos a maior taxa de ganho de peso, apresentaram maiores valores (P<0,05) de ETR em relação ao G600 ao início da estação de monta. Novilhas com ETR mais elevados apresentaram uma tendência (P>0,05) de maior TP. A TP de novilhas de corte ao sobreano esteve associada com a intensidade de ganho de peso na recria independente das variações de peso no acasalamento.