13 resultados para short-time dynamics
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
The objective of this article is to study (understand and forecast) spot metal price levels and changes at monthly, quarterly, and annual horizons. The data to be used consists of metal-commodity prices in a monthly frequency from 1957 to 2012 from the International Financial Statistics of the IMF on individual metal series. We will also employ the (relatively large) list of co-variates used in Welch and Goyal (2008) and in Hong and Yogo (2009) , which are available for download. Regarding short- and long-run comovement, we will apply the techniques and the tests proposed in the common-feature literature to build parsimonious VARs, which possibly entail quasi-structural relationships between different commodity prices and/or between a given commodity price and its potential demand determinants. These parsimonious VARs will be later used as forecasting models to be combined to yield metal-commodity prices optimal forecasts. Regarding out-of-sample forecasts, we will use a variety of models (linear and non-linear, single equation and multivariate) and a variety of co-variates to forecast the returns and prices of metal commodities. With the forecasts of a large number of models (N large) and a large number of time periods (T large), we will apply the techniques put forth by the common-feature literature on forecast combinations. The main contribution of this paper is to understand the short-run dynamics of metal prices. We show theoretically that there must be a positive correlation between metal-price variation and industrial-production variation if metal supply is held fixed in the short run when demand is optimally chosen taking into account optimal production for the industrial sector. This is simply a consequence of the derived-demand model for cost-minimizing firms. Our empirical evidence fully supports this theoretical result, with overwhelming evidence that cycles in metal prices are synchronized with those in industrial production. This evidence is stronger regarding the global economy but holds as well for the U.S. economy to a lesser degree. Regarding forecasting, we show that models incorporating (short-run) commoncycle restrictions perform better than unrestricted models, with an important role for industrial production as a predictor for metal-price variation. Still, in most cases, forecast combination techniques outperform individual models.
Resumo:
The objective of this article is to study (understand and forecast) spot metal price levels and changes at monthly, quarterly, and annual frequencies. Data consists of metal-commodity prices at a monthly and quarterly frequencies from 1957 to 2012, extracted from the IFS, and annual data, provided from 1900-2010 by the U.S. Geological Survey (USGS). We also employ the (relatively large) list of co-variates used in Welch and Goyal (2008) and in Hong and Yogo (2009). We investigate short- and long-run comovement by applying the techniques and the tests proposed in the common-feature literature. One of the main contributions of this paper is to understand the short-run dynamics of metal prices. We show theoretically that there must be a positive correlation between metal-price variation and industrial-production variation if metal supply is held fixed in the short run when demand is optimally chosen taking into account optimal production for the industrial sector. This is simply a consequence of the derived-demand model for cost-minimizing firms. Our empirical evidence fully supports this theoretical result, with overwhelming evidence that cycles in metal prices are synchronized with those in industrial production. This evidence is stronger regarding the global economy but holds as well for the U.S. economy to a lesser degree. Regarding out-of-sample forecasts, our main contribution is to show the benefits of forecast-combination techniques, which outperform individual-model forecasts - including the random-walk model. We use a variety of models (linear and non-linear, single equation and multivariate) and a variety of co-variates and functional forms to forecast the returns and prices of metal commodities. Using a large number of models (N large) and a large number of time periods (T large), we apply the techniques put forth by the common-feature literature on forecast combinations. Empirically, we show that models incorporating (short-run) common-cycle restrictions perform better than unrestricted models, with an important role for industrial production as a predictor for metal-price variation.
Resumo:
O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.
Resumo:
A motivação para este trabalho vem dos principais resultados de Carvalho e Schwartzman (2008), onde a heterogeneidade surge a partir de diferentes regras de ajuste de preço entre os setores. Os momentos setoriais da duração da rigidez nominal são su cientes para explicar certos efeitos monetários. Uma vez que concordamos que a heterogeneidade é relevante para o estudo da rigidez de preços, como poderíamos escrever um modelo com o menor número possível de setores, embora com um mínimo de heterogeneidade su ciente para produzir qualquer impacto monetário desejado, ou ainda, qualquer três momentos da duração? Para responder a esta questão, este artigo se restringe a estudar modelos com hazard-constante e considera que o efeito acumulado e a dinâmica de curto-prazo da política monetária são boas formas de se resumir grandes economias heterogêneas. Mostramos que dois setores são su cientes para resumir os efeitos acumulados de choques monetários, e economias com 3 setores são boas aproximações para a dinâmica destes efeitos. Exercícios numéricos para a dinâmica de curto prazo de uma economia com rigidez de informação mostram que aproximar 500 setores usando apenas 3 produz erros inferiores a 3%. Ou seja, se um choque monetário reduz o produto em 5%, a economia aproximada produzirá um impacto entre 4,85% e 5,15%. O mesmo vale para a dinâmica produzida por choques de nível de moeda em uma economia com rigidez de preços. Para choques na taxa de crescimento da moeda, a erro máximo por conta da aproximação é de 2,4%.
Resumo:
Os Bancos Centrais têm, como função principal, zelar pela moeda, de modo a assegurar a estabilidade financeira de seus países. A partir de tal premissa, buscaremos demonstrar que o Banco Central do Brasil necessita de autonomia operacional, a ser regulamentada em lei, a fim de cumprir com sua missão, que é de natureza essencialmente técnica. Em que pese o fato de questão de se implementar, no Brasil, um Banco Central dotado de autonomia não ser consensual, buscaremos demonstrar as vantagens deste modelo, como fator de obtenção de estabilidade monetária. No Brasil, o Banco Central (BACEN), além de arcar com uma enorme gama de atribuições, encontra-se sujeito a pressões governamentais, em face de projetos de curto prazo, não necessariamente compatíveis com a tarefa de estabilização monetária, que pode requerer uma atuação de longo prazo. A autonomia desejada para o BACEN não significa que ele venha a se tomar independente, pelo contrário, uma vez que ele terá que assumir a responsabilidade de atingir metas pré-determinadas pelo Governo, obrigando-se a prestar contas de sua atuação à sociedade, de modo transparente. Para tanto, é preciso que ele seja dotado de autonomia administrativa, orçamentária e operacional, dentro de limites estabelecidos por lei. Ao destacarmos a autonomia do BACEN, trazemos a tona um fator pertinente à questão que é inflação. Trata-se de um processo que corrói a economia, e, quando se toma crônica, 111 como vinha ocorrendo no Brasil até os anos 90, leva à instabilidade e dificulta um planejamento de longo prazo. A necessidade de se controlar a inflação, em muitos países, levou-os a adotar uma política monetária com metas inflacionárias - Inflatíon Targeting. Os países que adotaram o regime de metas inflacionárias conferiram autonomia aos seus Bancos Centrais, pois tanto mais autonomia, tanto mais credibilidade. Desta forma, países como o Chile, a Nova Zelândia, a Alemanha e os demais países que compõem a União Europeia lograram controlar a inflação. Para que o BACEN cumpra com o que lhe compete, exercendo eficientemente o seu papel, é curial, portanto, que seja dotado de autonomia orçamentária, administrativa e operacional, devendo ser regulamentado o art. 192 da Constituição Federal, através de Lei Complementar. Uma vez assegurada legalmente a autonomia de que o Banco Central do Brasil necessita, ter-se-á um meio valioso de controle da inflação, assegurando a estabilidade da moeda e permitindo que o desenvolvimento seja implementado no prazo adequado, permitindo um planejamento estratégico de longo prazo para o país.
Resumo:
A Lan House, surgida no Brasil como um meio de entretenimento para os jovens, se tornou, em um curto espaço de tempo, uma febre nas periferias das grandes cidades brasileiras. Essa disseminação se deu, principalmente, após o programa “Computador para Todos” lançado pelo Governo Federal a título de política pública de inclusão digital. Assim, as Lan Houses se constituíram em uma oportunidade de acesso ao computador e à Internet para aqueles que não teriam ingresso à rede se não fosse a existência desse tipo de instituição comercial (CDI, 2010), sendo a segunda principal provedora de acesso público às TIC no país (CETIC, 2010). Diante desse cenário, este estudo se propõe a descrever a trajetória na implantação das Lan Houses no Brasil, sob a ótica da Teoria Ator-Rede, identificando os atores relevantes na formação de uma rede sociotécnica, por meio do método de estudo de caso único realizado no bairro Jardim Catarina, em São Gonçalo. O trabalho apresenta, ainda, o modelo heurístico de inclusão digital para avaliar se este tipo de estabelecimento apresenta fatores relevantes para fomentar a inclusão digital. O resultado desta análise revela que as Lan Houses não são um agente de inclusão digital, apesar de sua relevância para as regiões com menores índices de renda e, por conseguinte, restritas ao uso de computadores e Internet, como o bairro Jardim Catarina.
Resumo:
O presente trabalho visa ilustrar a importância de se analisar os impactos de um megaevento esportivo, como a Copa do Mundo, no turismo do destino sede. A escolha do tema se dá pelo fato de iniciativas como essas terem se tornadas estratégicas nos últimos anos e muito disputadas por governos em todo o mundo. O motivo da escolha do tema se dá especialmente pelo fato do Brasil sediar, em curto espaço de tempo, dois dos principais megaeventos esportivos internacionais: a Copa do Mundo, em 2014, e os Jogos Olímpicos, em 2016. O trabalho, composto por 8 capítulos procura, com base no referencial teórico, identificar os principais impactos dos megaeventos no segmento de turismo do destino sede. Para se atingir este objetivo, utilizou-se o modelo de avaliação proposto por Allen et al (2003), cientista internacional referencia nessa área de estudo. Dentre os possíveis impactos positivos engloba-se a promoção do destino e incremento do turismo, o aumento do tempo de permanência do turista, a lucratividade para o setor, o aumento da renda de impostos, a oportunidade de negócios, investimento em infra-estrutura no destino, a atividade comercial e a geração de empregos pela realização do evento. Por outro lado, dentre os impactos negativos, destacam-se a resistência da comunidade ao turismo, a perda de autenticidade e danos à reputação do destino, exploração, preços inflacionados, custos de oportunidade, má gestão financeira, perda financeira, dentre outros. O método de pesquisa, baseado em Yin (2005), foi o estudo de caso baseado nos dois eventos mais recentes de Copa do Mundo: Alemanha (2006) e África do Sul (2010). O estudo teve um viés qualitativo e os instrumentos de coleta de dados foram diferenciados em cada uma das etapas da pesquisa, englobando pesquisa a dados primários e secundários, consulta à relatórios oficiais e principalmente a consulta a artigos acadêmicos de renomados autores internacionais especialistas em eventos. Foram também consultadas pesquisas de renomadas instituições, tais como Organização Mundial do Turismo OMT (2006), Fundação Getulio Vargas (FGV, 2009), FIPE (2005), EMBRATUR e Ministério do Turismo (MTUR), entre outras. Os resultados demonstram que os megaeventos geram oportunidades para o destino sede - de curto, médio e longo prazo - para os diferentes segmentos, em especial para o turismo de eventos e esportivo, seja no âmbito nacional ou internacional. Também observa-se a importância das ações de melhoria não serem pontuais, para que justifiquem o próprio legado do evento em pauta. Por outro lado, verifica-se a importância de se realizar ações que visem mitigar os impactos negativos inerentes a megaeventos, a fim de não se comprometer o turismo do destino ou pais sede, sua reputação, seus cofres públicos e sua comunidade.
Resumo:
In the first chapter, we test some stochastic volatility models using options on the S&P 500 index. First, we demonstrate the presence of a short time-scale, on the order of days, and a long time-scale, on the order of months, in the S&P 500 volatility process using the empirical structure function, or variogram. This result is consistent with findings of previous studies. The main contribution of our paper is to estimate the two time-scales in the volatility process simultaneously by using nonlinear weighted least-squares technique. To test the statistical significance of the rates of mean-reversion, we bootstrap pairs of residuals using the circular block bootstrap of Politis and Romano (1992). We choose the block-length according to the automatic procedure of Politis and White (2004). After that, we calculate a first-order correction to the Black-Scholes prices using three different first-order corrections: (i) a fast time scale correction; (ii) a slow time scale correction; and (iii) a multiscale (fast and slow) correction. To test the ability of our model to price options, we simulate options prices using five different specifications for the rates or mean-reversion. We did not find any evidence that these asymptotic models perform better, in terms of RMSE, than the Black-Scholes model. In the second chapter, we use Brazilian data to compute monthly idiosyncratic moments (expected skewness, realized skewness, and realized volatility) for equity returns and assess whether they are informative for the cross-section of future stock returns. Since there is evidence that lagged skewness alone does not adequately forecast skewness, we estimate a cross-sectional model of expected skewness that uses additional predictive variables. Then, we sort stocks each month according to their idiosyncratic moments, forming quintile portfolios. We find a negative relationship between higher idiosyncratic moments and next-month stock returns. The trading strategy that sells stocks in the top quintile of expected skewness and buys stocks in the bottom quintile generates a significant monthly return of about 120 basis points. Our results are robust across sample periods, portfolio weightings, and to Fama and French (1993)’s risk adjustment factors. Finally, we identify a return reversal of stocks with high idiosyncratic skewness. Specifically, stocks with high idiosyncratic skewness have high contemporaneous returns. That tends to reverse, resulting in negative abnormal returns in the following month.
Resumo:
O neoliberalismo, do ponto de vista econômico e social, pode ser entendido como a instauração, na sociedade, de relações estritamente mercantis, fazendo com que a lógica da maximização do ganho e do rendimento seja estendida a todos os campos, promovendo a racionalidade econômica como forma de racionalidade em geral. A forma de governamentalidade neoliberal norte-americana, com sua pretensão de transmutar os indivíduos em sujeitos-microempresas e as relações humanas em relações de tipo concorrencial, faz com que os indivíduos passem a ser vistos como “capital humano”. Originalmente, o termo “capital humano” remete a uma teoria que, desenvolvida sob influência do paradigma econômico neoclássico e liderança de Theodore Schultz, foi responsável por assimilar e transferir princípios econômicos para uma realidade anteriormente isenta de significados dessa natureza, fazendo emergir um discurso que associa o humano ao capital, transportando-o, dessa forma, para uma lógica onde ele deve gerir a si mesmo, tal como uma empresa. A empresa é, assim, promovida a modelo de subjetivação, sendo cada indivíduo um capital a ser gerenciado e valorizado conforme as demandas do mercado. É por isso que o modelo de conduta empreendedora, advindo do discurso do capital humano de inspiração neoliberal e de teorias clássicas propostas por Werner Sombart e Joseph A. Schumpeter, acomete os profissionais das organizações sediadas nos países capitalistas. Esse fato é bastante expressivo entre os jovens que procuram inserir-se no mercado de trabalho, principalmente em posições estratégicas valorizadas dentro das organizações, como as de trainee. No Brasil, os programas de trainee são considerados uma estratégia de busca de atração de jovens com perfil diferenciado, sendo uma resposta encontrada por muitas organizações desde 1970 para ganhar vantagem em um cenário econômico altamente competitivo. Esses profissionais são vistos como os “talentos” da organização, sendo treinados para ocuparem cargos estratégicos em um curto espaço tempo. A fim de esclarecer de que maneira o modelo de conduta empreendedora está presente nos processos seletivos de trainee, foi realizada uma análise dos textos que descrevem as competências exigidas na seleção desses jovens, a partir da Análise Crítica do Discurso (ACD) de Fairclough (2001, 2003), a partir das categorias analíticas “modalidade” e “avaliação”, e reflexões acerca da ideologia neoliberal. Chegou-se à conclusão de que o modelo de conduta empreendedora que está presente nos processos seletivos de trainee é marcada pela expressão de um comportamento apaixonado, que, no campo do management, é entendido a partir do conceito de “paixão empreendedora”. A pesquisa desenvolvida é relevante para o campo da Administração, tanto para o campo acadêmico (uma vez que há poucos estudos que têm como objeto de pesquisa a seleção de trainees e que procuram entendê-lo a partir de um viés crítico utilizando-se da análise do discurso do capital humano), como para quem está inserido nas organizações e convive com as dificuldades e desafios de selecionar jovens para programas de trainees, já que levanta questões importantes sobre os impactos dessas iniciativas tanto para os jovens, como para as organizações que os contratam.
Resumo:
This paper has two original contributions. First, we show that the present value model (PVM hereafter), which has a wide application in macroeconomics and fi nance, entails common cyclical feature restrictions in the dynamics of the vector error-correction representation (Vahid and Engle, 1993); something that has been already investigated in that VECM context by Johansen and Swensen (1999, 2011) but has not been discussed before with this new emphasis. We also provide the present value reduced rank constraints to be tested within the log-linear model. Our second contribution relates to forecasting time series that are subject to those long and short-run reduced rank restrictions. The reason why appropriate common cyclical feature restrictions might improve forecasting is because it finds natural exclusion restrictions preventing the estimation of useless parameters, which would otherwise contribute to the increase of forecast variance with no expected reduction in bias. We applied the techniques discussed in this paper to data known to be subject to present value restrictions, i.e. the online series maintained and up-dated by Shiller. We focus on three different data sets. The fi rst includes the levels of interest rates with long and short maturities, the second includes the level of real price and dividend for the S&P composite index, and the third includes the logarithmic transformation of prices and dividends. Our exhaustive investigation of several different multivariate models reveals that better forecasts can be achieved when restrictions are applied to them. Moreover, imposing short-run restrictions produce forecast winners 70% of the time for target variables of PVMs and 63.33% of the time when all variables in the system are considered.
Resumo:
It is well known that cointegration between the level of two variables (e.g. prices and dividends) is a necessary condition to assess the empirical validity of a present-value model (PVM) linking them. The work on cointegration,namelyon long-run co-movements, has been so prevalent that it is often over-looked that another necessary condition for the PVM to hold is that the forecast error entailed by the model is orthogonal to the past. This amounts to investigate whether short-run co-movememts steming from common cyclical feature restrictions are also present in such a system. In this paper we test for the presence of such co-movement on long- and short-term interest rates and on price and dividend for the U.S. economy. We focuss on the potential improvement in forecasting accuracies when imposing those two types of restrictions coming from economic theory.
Resumo:
Alavancagem em hedge funds tem preocupado investidores e estudiosos nos últimos anos. Exemplos recentes de estratégias desse tipo se mostraram vantajosos em períodos de pouca incerteza na economia, porém desastrosos em épocas de crise. No campo das finanças quantitativas, tem-se procurado encontrar o nível de alavancagem que otimize o retorno de um investimento dado o risco que se corre. Na literatura, os estudos têm se mostrado mais qualitativos do que quantitativos e pouco se tem usado de métodos computacionais para encontrar uma solução. Uma forma de avaliar se alguma estratégia de alavancagem aufere ganhos superiores do que outra é definir uma função objetivo que relacione risco e retorno para cada estratégia, encontrar as restrições do problema e resolvê-lo numericamente por meio de simulações de Monte Carlo. A presente dissertação adotou esta abordagem para tratar o investimento em uma estratégia long-short em um fundo de investimento de ações em diferentes cenários: diferentes formas de alavancagem, dinâmicas de preço das ações e níveis de correlação entre esses preços. Foram feitas simulações da dinâmica do capital investido em função das mudanças dos preços das ações ao longo do tempo. Considerou-se alguns critérios de garantia de crédito, assim como a possibilidade de compra e venda de ações durante o período de investimento e o perfil de risco do investidor. Finalmente, estudou-se a distribuição do retorno do investimento para diferentes níveis de alavancagem e foi possível quantificar qual desses níveis é mais vantajoso para a estratégia de investimento dadas as restrições de risco.
Resumo:
Using a sequence of nested multivariate models that are VAR-based, we discuss different layers of restrictions imposed by present-value models (PVM hereafter) on the VAR in levels for series that are subject to present-value restrictions. Our focus is novel - we are interested in the short-run restrictions entailed by PVMs (Vahid and Engle, 1993, 1997) and their implications for forecasting. Using a well-known database, kept by Robert Shiller, we implement a forecasting competition that imposes different layers of PVM restrictions. Our exhaustive investigation of several different multivariate models reveals that better forecasts can be achieved when restrictions are applied to the unrestricted VAR. Moreover, imposing short-run restrictions produces forecast winners 70% of the time for the target variables of PVMs and 63.33% of the time when all variables in the system are considered.