30 resultados para ANALISIS DE SERIES DE TIEMPO - MODELOS ECONOMETRICOS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using information on US domestic financial data only, we build a stochastic discount factor—SDF— and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our SDF as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets prices. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by comparing this out-of-sample results with the one obtained performing an in-sample exercise, where the return-based SDF captures sources of risk of a representative set of developed and emerging economies government bonds. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study uses a new data set of crime ratesfor a large sample of countriesfor the period 1970- 1994, based on information from the United Nations World Crime Surveys, to ana/yze the determinants ofnational homicide and robbery rates. A simple model of the incentives to commit crimes is proposed, which explicit/y considers possible causes of the persistence of crime over time (criminal inertia). Several econometric mode/s are estimated, attempting to capture the . determinonts of crime rates across countries and over time. The empirical mode/s are first run for cross-sections and then applie'd to panel data. The former focus on erplanatory variables that do not change markedly over time, while the panel data techniques consider both the eflect of the business cyc1e (i.e., GDP growth rate) on the crime rate and criminal inertia (accountedfor by the inclusion of the /agged crime rate as an explanatory variable). The panel data techniques a/so consider country-specific eflects, the joint endogeneity of some of the erplanatory variables, and lhe existence of some types of measurement e"ors aJjlicting the crime data. The results showthat increases in income inequality raise crime rates, dete"ence eflects are significant, crime tends to be counter-cyclical, and criminal inertia is significant even after controlling for other potential determinants of homicide and robbery rates.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper quantifies the effects on violence and police activity of the Pacifying Police Unit program (UPP) in Rio de Janeiro and the possible geographical spillovers caused by this policy. This program consists of taking selected shantytowns controlled by criminals organizations back to the State. The strategy of the policy is to dislodge the criminals and then settle a permanent community-oriented police station in the slum. The installation of police units in these slums can generate geographical spillover effects to other regions of the State of Rio de Janeiro. We use the interrupted time series approach proposed by Gonzalez-Navarro (2013) to address effects of a police when there is contagion of the control group and we find that criminal outcomes decrease in areas of UPP and in areas near treated regions. Furthermore, we build a model which allows to perform counterfactuals of this policy and to estimate causal effects in other areas of the State of Rio de Janeiro outside the city.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

After more than forty years studying growth, there are two classes of growth models that have emerged: exogenous and endogenous growth models. Since both try to mimic the same set of long-run stylized facts, they are observationally equivalent in some respects. Our goals in this paper are twofold First, we discuss the time-series properties of growth models in a way that is useful for assessing their fit to the data. Second, we investigate whether these two models successfully conforms to U.S. post-war data. We use cointegration techniques to estimate and test long-run capital elasticities, exogeneity tests to investigate the exogeneity status of TFP, and Granger-causality tests to examine temporal precedence of TFP with respect to infrastructure expenditures. The empirical evidence is robust in confirming the existence of a unity long-run capital elasticity. The analysis of TFP reveals that it is not weakly exogenous in the exogenous growth model Granger-causality test results show unequivocally that there is no evidence that TFP for both models precede infrastructure expenditures not being preceded by it. On the contrary, we find some evidence that infras- tructure investment precedes TFP. Our estimated impact of infrastructure on TFP lay rougbly in the interval (0.19, 0.27).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente artigo busca trazer uma perspectiva jurídica ao debate sobre o impacto da replicação de modelos de negócio na Internet. O objetivo é oferecer uma análise sobre os copycats – empresas que reproduzem modelos de negócio inovadores desenvolvidos por empresas terceiras – em conjunto com os institutos da liberdade de concorrência e propriedade intelectual, examinando a contraposição existente entre esses no arcabouço jurídico nacional e buscando responder, como pergunta de trabalho, se esses mecanismos podem ser interpretados, à luz do ordenamento brasileiro, como mecanismos de incentivo ou restrição ao desenvolvimento de copycats no país.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose mo deIs to analyze animal growlh data wilh lhe aim of eslimating and predicting quanlities of Liological and economical interest such as the maturing rate and asymptotic weight. lt is also studied lhe effect of environmenlal facLors of relevant influence in the growlh processo The models considered in this paper are based on an extension and specialization of the dynamic hierarchical model (Gamerman " Migon, 1993) lo a non-Iinear growlh curve sdLillg, where some of the growth curve parameters are considered cxchangeable among lhe unils. The inferencc for thcse models are appruximale conjugale analysis Lascd on Taylor series cxpallsiulIs aliei linear Bayes procedures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estado desenvolvimentista está situado entre o estado liberal e o estatismo. Todas as revoluções industriais foram realizadas no quadro de estados desenvolvimentistas, que assumiram várias formas ou modelos, conforme o desenvolvimento fosse original ou retardatário, central ou periférico, o primeiro desenvolvimentismo no país ou o segundo. Terminada a revolução industrial e depois que a economia se torna diversificada, complexa e competitiva, o mercado pode coordenar com vantagem os setores competitivos. Mas o estado tende e deve continuar desenvolvimentista, porque cabe a ele coordenar o setor não-competitivo, realizar uma política macroeconômica ativa incluindo uma política cambial, promover a diminuição das desigualdades econômicas, e proteger o meio ambiente – todas atividades que o mercado não tem condições de realizar.