602 resultados para Mercado financeiro – Modelos econométricos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

As décadas mais recentes têm marcado a supremacia dos regimes econômicos que privilegiam as responsabilidades fiscal e monetária. De forma ainda mais destacada, o sistema de metas de inflação vem ganhando espaço, com a adesão de um número crescente de países. No Brasil, sua introdução em 1999 colocou a política monetária em grande evidência, alimentando um prolongado debate acerca dos méritos e desvantagens da priorização absoluta da estabilização monetária. Este trabalho parte de um resumo histórico das práticas de política monetária no Brasil republicano. A seguir, procura-se aferir a eficiência dessas políticas no período posterior à estabilização alcançada pelo Plano Real, com a descrição da ferramenta adotada, a Função Impulso-Resposta Generalizada. Os resultados obtidos com esse instrumento permitem concluir que a autoridade monetária tem sido bem sucedida na gestão do regime de metas de inflação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Avaliação do risco de crédito agregado é um grande desafio para as empresas em todo mundo. O dinamismo do mercado e o desenvolvimento dos derivativos de crédito tornaram a gestão do risco de crédito fundamental para o negócio das instituições financeiras. Nas instituições não-financeiras, o foco na gestão do risco de crédito agregado ainda é pequeno, mas os benefícios e a necessidade de uma visão agregada da carteira já são identificados. No caso brasileiro, esse trabalho é dificultado devido à carência de base de dados e ao mercado financeiro pouco desenvolvido. Diante desse desafio, o objetivo do trabalho é apresentar um modelo para avaliação do risco de crédito agregado que seja aplicável em empresas brasileiras não-financeiras, onde o CreditRisk+ foi escolhido pela facilidade de cálculo e baixa dependência de informações de mercado. Entretanto, para adequá-lo ao caso brasileiro são necessárias algumas flexibilizações, que serão apresentadas a seguir no modelo adaptado para o caso brasileiro. Por fim, para testar a aderência do modelo, foi utilizada uma amostra da carteira de crédito da Companhia Vale do Rio Doce (CVRD), que nos fornece resultados conclusivos sobre a performance da metodologia escolhida ao final do trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho analisar acumulação de reservas internacionais por parte de países como Brasil, que acumulam reservas na tentativa de se proteger de crises externas bem como diminuir tal probabilidade. Desejamos analisar determinação do nível ótimo de reservas. Apresentaremos um breve histórico da literatura sobre acumulação de reservas. No estudo do Brasil, discutiremos nível ótimo de reservas internacionais brasileiras usando modelo de buffer stock, partir de uma abordagem de séries temporais, diferindo de trabalhos anteriores usando dados cross-section.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise based upon data from a well known survey is also presented. Overall, theoretical and empirical results show promise for the feasible bias-corrected average forecast.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Initial endogenous growth models emphasized the importance of external effects and increasing retums in explaining growth. Empirically, this hypothesis can be confumed if the coefficient of physical capital per hour is unity in the aggregate production function. Previous estimates using time series data rejected this hypothesis, although cross-country estimates did nol The problem lies with the techniques employed, which are unable to capture low-frequency movements of high-frequency data. Using cointegration, new time series evidence confum the theory and conform to cross-country evidence. The implied Solow residual, which takes into account externaI effects to aggregate capital, has its behavior analyzed. The hypothesis that it is explained by government expenditures on infrasttucture is confIrmed. This suggests a supply-side role for government affecting productivity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular it delivers a zero-limiting mean-squared error if the number of forecasts and the number of post-sample time periods is sufficiently large. We also develop a zero-mean test for the average bias. Monte-Carlo simulations are conducted to evaluate the performance of this new technique in finite samples. An empirical exercise, based upon data from well known surveys is also presented. Overall, these results show promise for the bias-corrected average forecast.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neri e Xerez (2003) discutem a racionalidade econômica para o desenvolvimento de um sistema de metas sociais a partir de variantes estáticas do modelo agente-principal. Este sistema atua como forma do governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O presente trabalho desenvolve algumas extensões deste modelo com diferentes possibilidades de renegociação ao longo do tempo assim como a presença de choques. Demonstramos num contexto dinâmico com contratos completos que a melhor forma de aumentar a eficiência alocativa dos fundos transferidos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências expost criadas por não se usar a informação nova revelada ao longo do processo. Na segunda parte do artigo incorporamos a incidência de choques aleatórios. Mostramos que, quando os resultados sociais não dependem somente dos investimentos realizados pelo município, mas também de fatores estocásticos, o contrato estabelecido entre governo federal e municípios, deve estipular metas mais altas de forma a prevenir a ocorrência de estados ruins da natureza. Além disso, contratos lineares nesse tipo de situação são pró-cíclicos, reduzindo as transferências governamentais justamente quando o município sofre um choque negativo. Para evitar esse tipo de situação, mostramos que o estabelecimento de contratos que utilizam mecanismos de comparação de performance entre os municípios elimina o efeito pró-cíclico, garantindo aos municípios uma transferência fixa quando eles investem na área social.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise, based upon data from a well known survey is also presented. Overall, these results show promise for the feasible bias-corrected average forecast.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em 2000, o governo federal fixou uma lei que permitia as Unidades Federativas fixarem pisos salariais acima do salário mínimo, representando uma oportunidade privilegiada de avaliação dos seus impactos. A nova lei oferece uma fonte de variabilidade potencialmente exógena além de isolar os efeitos de mudanças do salário mínimo sobre a demanda de trabalho dos impactos fiscais exercidos no contexto brasileiro. Inicialmente, testamos a efetividade da lei, utilizando logits multinomiais aplicados a PNAD/IBGE a fim de calcular a probabilidade de acumulação de massa de salários abaixo, igual e acima dos pisos estaduais. Posteriormente, aplicamos regressões quantílicas para diferenças de salários e de ocupação antes e depois da aplicação da lei comparando grupos de tratamento e controle através de dados longitudinais da PME/IBGE. Os resultados demonstram uma baixa efetividade e um alto descumprimento da lei nos estados aonde foi aplicada.