264 resultados para Borracha - Preços - Modelos econométricos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo tem como objetivo analisar o desempenho de vários modelos econométricos ao prever Inflação . Iniciamos o trabalho utilizando como base de comparação para todos os modelos a tradicional curva de Phillips que usa a taxa de desemprego como variável explicativa para diferenças de preço. Dentre os modelos analisados temos univariados e bivariados, sendo estes últimos uma curva de Phillips alternativa já que apenas sustitui a variável desemprego por outra variável macroeconômica. Além destes modelos também comparamos o desempenho de previsão de modelos que usam como covariadas uma combinação das previsões dos modelos anteriores (univariados e bivariados). O resultado deste estudo aponta a combinação de modelos por "ridge regression" como uma técnica - dentre as analisadas para combinação de previsões - de menor erro de previsão sempre; sendo alcançado pela combinação da média em apenas um dos casos analisados. No entanto, a combinação de previsões não apresentou melhor resultado que algumas das covariadas testadas em modelos bivariados

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Essa tese se propõe fazer uma comparação entre duas técnicas alternativas para estudo de impactos marginais de variáveis sócio-econômicas sobre as taxas de crescimento per-capita de grupos de países durante período de 1965 1985: regressão em sistemas de equações com dados em seções transversais, usada por Barro Sala-i-Martin (1995), entre outros, e a regressão em painel com coeficientes individuais. Tentaremos mostrar que os resultados associados certas variáveis são bastante diferentes procuraremos entender algumas causas dessas diferenças. Além disso, estaremos preocupados em avaliar como os resultados são afetados ao alterarmos conjunto de países estudado, em particular quando tomamos grupos de países com uma série de características semelhantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mostramos que separar reguladores não benevolentes é a resposta institucional ótima quando os projetos regulados são grandes , i.e., apresentam benefício mar- ginal alto. Como separação impede que os reguladores se coordenem para se apro- priar de toda a renda informacional do agente quando sabem o tipo desse último, há um trade-o¤ entre poupança de renda informacional e e ciência alocativa, pois o jogo entre os reguladores induzido pela separação gera distorção em relação à alocação sob um único regulador. Quando a renda informacional em questão é grande, vale a pena a divisão de reguladores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent efforts toward a world with freer trade, like WTO/GATT or regional Preferential Trade Agreements(PTAs), were put in doubt after McCallum's(1995) finding of a large border effect between US and Canadian provinces. Since then, there has been a great amount of research on this topic employing the gravity equation. This dissertation has two goals. The first goal is to review comprehensively the recent literature about the gravity equation, including its usages, econometric specifications, and the efforts to provide it with microeconomic foundations. The second goal is the estimation of the Brazilian border effect (or 'home-bias trade puzzle') using inter-state and international trade flow data. It is used a pooled cross-section Tobit model. The lowest border effect estimated was 15, which implies that Brazilian states trade among themselves 15 times more than they trade with foreign countries. Further research using industry disaggregated data is needed to qualify the estimated border effect with respect to which part of that effect can be attributed to actual trade costs and which part is the outcome of the endogenous location problem of the firm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em 2000, o governo federal xou uma lei que permitia as unidades federativas xarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e do Rio Grande do Sul adotaram essa lei, a partir de 2001 representando uma oportunidade privile- giada de avaliação dos impactos do salário mínimo. A nova lei ao reajustar de maneira diferenciada entre estados e grupos pro ssionais oferece uma fonte de variabilidade po- tencialmente exógena para estimação dos seus impactos . Outra vantagem é isolar os efeitos de mudanças de um preço mínimo sobre a demanda de trabalho dos impactos scais exercidos pelo salário mínimo no contexto brasileiro. Inicialmente, testamos a efetividade da nova lei utilizando a Pesquisa Nacional de Amostras por Domicílio (PNAD) usamos duas metodologias complementares, a saber: i) logits (binário e multinomial) aplicados a PNADS de vários anos tomadas conjunta- mente a m de calcular a probabilidade de acumulação de massa abaixo, igual e acima dos pisos estaduais e do SM; ii) regressões de média e quantílicas para diferenças de salários antes e depois da aplicação da legislação estadual comparando um grupo de tratamento com um grupo de controle. Posteriormente, lançamos mão do aspecto lon- gitudinal da Pesquisa Mensal de Emprego (PME) para aplicarmos em um contexto dinâmico, regressões quantílicas. Os resultados demonstram que a lei exerce algum im- pacto sobre os quantis de rendimentos situados em torno dos valores assumidos pelos pisos salariais mas ainda existe um nível alto de descumprimento da legislação. Dada esta evidência, buscamos adicionalmente avaliar os impactos sobre o nível de emprego da nova lei utilizando a adoção dos pisos estaduais de salário uminense e gaúcho como experimentos naturais. Aplicamos estimadores de diferença em diferença aos dados de painel rotativo derivados da PME. Obtivemos um impacto nulo no emprego, que con- tradiz o modelo usual de oferta e demanda de mercado de trabalho. Este fato pode ser lido como uma evidência adicional da pouca efetividade da lei. Em uma análise complementar, averiguamos a tentativa de implantação pelo estado da Bahia de um "salário mínimo estadual"de 180 reais em abril de 2000, opondo-se ao aumento de 151 reais xados pela União. Mas os resultados se mostraram contrários à lei dos pisos estaduais, ou seja, indicaram pouca efetividade também desta lei xada na Bahia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vivemos um momento de grande crescimento da construção naval no mundo, que é impulsionado pelo crescimento do comércio entre as nações, em um mundo cada vez mais globalizado. O mesmo se repete no Brasil. O principal objetivo deste trabalho é propor uma metodologia para o cálculo objetivo do valor a ser garantido ao cliente da indústria naval, de modo a criar os incentivos econômicos corretos para os artífices da relação principal-agente. Inicialmente descreverei a Tecnologia da Construção Naval e os problemas econômicos que encontramos, passando a seguir a expor o Mercado Naval, estando aí incluídos o lado consumidor e os produtores de navios, sendo eles nacionais ou internacionais. Finalmente passaremos ao detalhamento da solução de seguro proposta, com a formalização do tipo de seguro, nível de cobertura e monitoramento. Para tal utilizaremos a metodologia de Vector-Autorregression combinada a uma simulação de Monte Carlo. Os resultados encontrados são checados e apontamos os caminhos para aperfeiçoar a metodologia e possíveis usos alternativos para ela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As décadas mais recentes têm marcado a supremacia dos regimes econômicos que privilegiam as responsabilidades fiscal e monetária. De forma ainda mais destacada, o sistema de metas de inflação vem ganhando espaço, com a adesão de um número crescente de países. No Brasil, sua introdução em 1999 colocou a política monetária em grande evidência, alimentando um prolongado debate acerca dos méritos e desvantagens da priorização absoluta da estabilização monetária. Este trabalho parte de um resumo histórico das práticas de política monetária no Brasil republicano. A seguir, procura-se aferir a eficiência dessas políticas no período posterior à estabilização alcançada pelo Plano Real, com a descrição da ferramenta adotada, a Função Impulso-Resposta Generalizada. Os resultados obtidos com esse instrumento permitem concluir que a autoridade monetária tem sido bem sucedida na gestão do regime de metas de inflação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Banco Central brasileiro tem como principal instrumento de política monetária a taxa de juros de curto prazo (SELIC), apesar de sabermos que a economia é mais afetada pelas taxas mais longas, pois são essas que demonstram mais precisamente o cenário prospectivo de prazo mais coerente com os investimentos. O trabalho tem como principal objetivo, analisar de que forma esta transmissão de política monetária entre as taxas curtas e longa poderia ser melhorada, através de uma atuação mais ativa na gestão da dívida pública pré fixada. Para isso, definimos uma variável S, que é tratada como a elasticidade da taxa longa à variações na taxa de curto prazo. Em seguida, analisamos econometricamente, como esta variável varia de acordo com as seguintes variáveis escolhidas: percentual pré fixado da dívida pública local, prazo médio da dívida pública local pré fixada, um parâmetro fiscal e um parâmetro de risco. Começamos o trabalho discutindo o modelo de metas de inflação no Brasil, e a influência das taxas longas nas análises produzidas. Em seguida mostramos a evolução do perfil da dívida pública desde 2000, característica dos títulos colocados no mercado e prazos médios. Veremos que, apesar da indiscutível melhora do seu perfil, a dívida pública apresenta ainda características bastante "arriscadas" e longe do ideal. Discutimos as principais teoria à respeito da formação de estrutura a termo de juros e verificamos que a idéia de otimização entre as relações de oferta e demanda ao longo da curva é um dos fatores principais na determinação de nível e formato das curvas de juros mais longas. Baseados neste conceito resolvemos analisar de que forma a sensibilidade destas taxas longas se relaciona com o aumento do percentual de títulos pré fixados na dívida total. Em seguida, definimos nosso modelo econométrico, realizamos alguns testes e variações no modelo proposto e analisamos seus resultados. Terminamos o trabalho discutindo as conclusões encontradas através de nosso estudo e propondo formas para que a melhoria do canal de transmissão de política monetária possa ser uma prioridade por parte do Tesouro Nacional e Banco Central, e para que no futuro não haja necessidade de termos uma taxa Selic tão alta para atingirmos nossos objetivos inflacionários, através de uma melhora significativa no mecanismo de transmissão de política monetária.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho analisar acumulação de reservas internacionais por parte de países como Brasil, que acumulam reservas na tentativa de se proteger de crises externas bem como diminuir tal probabilidade. Desejamos analisar determinação do nível ótimo de reservas. Apresentaremos um breve histórico da literatura sobre acumulação de reservas. No estudo do Brasil, discutiremos nível ótimo de reservas internacionais brasileiras usando modelo de buffer stock, partir de uma abordagem de séries temporais, diferindo de trabalhos anteriores usando dados cross-section.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise based upon data from a well known survey is also presented. Overall, theoretical and empirical results show promise for the feasible bias-corrected average forecast.