18 resultados para IN-VARIABLES MODELS

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties for a lack of parsimony, as well as the traditional ones. We suggest a new procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties. In order to compute the fit of each model, we propose an iterative procedure to compute the maximum likelihood estimates of parameters of a VAR model with short-run and long-run restrictions. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank, relative to the commonly used procedure of selecting the lag-length only and then testing for cointegration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian inflation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in different measures of forecasting accuracy are substantial, especially for short horizons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian in ation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in di¤erent measures of forecasting accuracy are substantial, especially for short horizons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. A Monte Carlo study explores the finite sample performance of this procedure and evaluates the forecasting accuracy of models selected by this procedure. Two empirical applications confirm the usefulness of the model selection procedure proposed here for forecasting.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper uses an output oriented Data Envelopment Analysis (DEA) measure of technical efficiency to assess the technical efficiencies of the Brazilian banking system. Four approaches to estimation are compared in order to assess the significance of factors affecting inefficiency. These are nonparametric Analysis of Covariance, maximum likelihood using a family of exponential distributions, maximum likelihood using a family of truncated normal distributions, and the normal Tobit model. The sole focus of the paper is on a combined measure of output and the data analyzed refers to the year 2001. The factors of interest in the analysis and likely to affect efficiency are bank nature (multiple and commercial), bank type (credit, business, bursary and retail), bank size (large, medium, small and micro), bank control (private and public), bank origin (domestic and foreign), and non-performing loans. The latter is a measure of bank risk. All quantitative variables, including non-performing loans, are measured on a per employee basis. The best fits to the data are provided by the exponential family and the nonparametric Analysis of Covariance. The significance of a factor however varies according to the model fit although it can be said that there is some agreements between the best models. A highly significant association in all models fitted is observed only for nonperforming loans. The nonparametric Analysis of Covariance is more consistent with the inefficiency median responses observed for the qualitative factors. The findings of the analysis reinforce the significant association of the level of bank inefficiency, measured by DEA residuals, with the risk of bank failure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In this study, we verify the existence of predictability in the Brazilian equity market. Unlike other studies in the same sense, which evaluate original series for each stock, we evaluate synthetic series created on the basis of linear models of stocks. Following Burgess (1999), we use the “stepwise regression” model for the formation of models of each stock. We then use the variance ratio profile together with a Monte Carlo simulation for the selection of models with potential predictability. Unlike Burgess (1999), we carry out White’s Reality Check (2000) in order to verify the existence of positive returns for the period outside the sample. We use the strategies proposed by Sullivan, Timmermann & White (1999) and Hsu & Kuan (2005) amounting to 26,410 simulated strategies. Finally, using the bootstrap methodology, with 1,000 simulations, we find strong evidence of predictability in the models, including transaction costs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O grau de liberdade da política monetária é uma questão muito relevante em um país que decide adotar um regime de metas inflacionárias e câmbio flutuante. Caso a autoridade monetária desse país não tenha liberdade para atuar, o regime de metas pode ser ineficiente. Em especial, caso esse país se encontre numa situação de Dominância Fiscal, a política monetária pode ter efeitos perversos sobre a relação dívida/PIB, aumentando seu prêmio de risco soberano e causando um aumento na probabilidade de default implícita em seus títulos soberanos. O intuito desse trabalho é realizar o teste de dominância a partir de um modelo proposto por Olivier Blanchard em 2004, e testar primeiro se o país se encontrava em dominância em 2002, 2003 e depois analisar o resultado desse modelo até novembro de 2005. Algumas modificações de variáveis utilizadas, medidas de risco e taxa de juros são propostas e é acrescido ao modelo um teste de estabilidade de coeficientes e a incerteza causada no período eleitoral em 2002. Além disso, é analisada a reação do Banco Central no período, para identificar se sua reação compartilhava da visão de dominância que o modelo original apresentava ou não. A conclusão é que o Brasil, mesmo após as alterações sugeridas, ainda se encontra numa situação de dominância fiscal segundo a descrição do modelo. Porém, o resultado final é cerca de 20% do originalmente observado em 2004, resultando em uma liberdade de atuação significativamente maior para a autoridade monetária no Brasil em 2002 e 2003. O Banco Central parece ter reagido a mudanças de expectativa de inflação e não parecia compartilhar um diagnóstico de dominância fiscal ao longo de 2002. As eleições foram significativas para explicar aumento da probabilidade de default, mas não alteram significativamente o resultado do teste após as mudanças de variáveis. A medida de risco proposta resulta em um modelo melhor para medir dominância no Brasil. A mensagem final é que o Brasil ainda precisa se preocupar com as restrições fiscais, mas elas são menores que o modelo original propunha.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper demonstrates that the applied monetary models - the Sidrauski-type models and the cash-in-advance models, augmented with a banking sector that supplies money substitutes services - imply trajectories which are Pareto-Optimum restricted to a given path of the real quantity of money. As a consequence, three results follow: First, Bailey’s formula to evaluate the welfare cost of inflation is indeed accurate, if the longrun capital stock does not depend on the inflation rate and if the compensate demand is considered. Second, the relevant money demand concept for this issue - the impact of inflation on welfare - is the monetary base. Third, if the long-run capital stock depends on the inflation rate, this dependence has a second-order impact on welfare, and, conceptually, it is not a distortion from the social point of view. These three implications moderate some evaluations of the welfare cost of the perfect predicted inflation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste estudo são analisados, através de técnicas de dados em painel, os fatores determinantes dos níveis de ativos líquidos de empresas abertas do Brasil, Argentina, Chile, México e Peru no período de 1995 a 2009. O índice utilizado nas modelagens é denominado de ativo líquido (ou simplesmente caixa), o qual inclui os recursos disponíveis em caixa e as aplicações financeiras de curto prazo, divididos pelo total de ativos da firma. É possível identificar uma tendência crescente de acúmulo de ativos líquidos como proporção do total de ativos ao longo dos anos em praticamente todos os países. São encontradas evidências de que empresas com maiores oportunidades de crescimento, maior tamanho (medido pelo total de ativos), maior nível de pagamento de dividendos e maior nível de lucratividade, acumulam mais caixa na maior parte dos países analisados. Da mesma forma, empresas com maiores níveis de investimento em ativo imobilizado, maior geração de caixa, maior volatilidade do fluxo de caixa, maior alavancagem e maior nível de capital de giro, apresentam menor nível de acúmulo de ativos líquidos. São identificadas semelhanças de fatores determinantes de liquidez em relação a estudos empíricos com empresas de países desenvolvidos, bem como diferenças devido a fenômenos particulares de países emergentes, como por exemplo elevadas taxas de juros internas, diferentes graus de acessibilidade ao mercado de crédito internacional e a linhas de crédito de agências de fomento, equity kicking, entre outros. Em teste para a base de dados das maiores firmas do Brasil, é identificada a presença de níveis-alvo de caixa através de modelo auto-regressivo de primeira ordem (AR1). Variáveis presentes em estudos mais recentes com empresas de países desenvolvidos como aquisições, abertura recente de capital e nível de governança corporativa também são testadas para a base de dados do Brasil.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper demonstrates that the applied monetary mo deIs - the Sidrauski-type models and the cash-in-advance models, augmented with a banking sector that supplies money substitutes services - imply trajectories which are P8,reto-Optimum restricted to a given path of the real quantity of money. As a consequence, three results follow: First, Bailey's formula to evaluate the wclfare cost of inflation is indeed accurate, if the long-run capital stock does not depend on the inflation rate and if the compensate demand is considered. Second, the relevant money demand concept for this issue - the impact of inflation on welfare - is the monetary base, Third, if the long-run capital stock depends on the inflation rate, this dependence has a second-order impact ou wclfare, and, conceptually, it is not a distortion from tite social point of vicw. These three implications moderatc some evaluations of the wclfare cost of the perfect predicted inflation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper explores the question: is working as young laborer harmful to an individual in terms of adult outcomes in income? This question is explored through the utilization of a unique set of instruments that control for the decision to work as a child and the decision of how much schooling to acquire. These instruments are combined with two large household survey data sets from Brazil that include retrospective information on the child labor and schooling of working-age adults: the 1988 and 1996 PNAD. Estimations of the reduced form earnings model are performed first by using OLS without controlling for the potential endogeneity of child labor and schooling, and then by using a GMM estimation of instrumental variables models that include the set of instruments for child labor and schooling. The findings of the empirical investigations show that child labor has large negative impact on adult earnings for both male and female children even when controlling for schooling. In addition, the negative impact of starting to work as a child reverses at around age 14. Finally, different child labor activities are examined to determine if some are beneficial while others harmful with the finding that working in agriculture as a child appears to have no negative impact over and above the loss of education.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.