901 resultados para Renda - Distribuição - Disparidades econômicas - Modelos econométricos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent efforts toward a world with freer trade, like WTO/GATT or regional Preferential Trade Agreements(PTAs), were put in doubt after McCallum's(1995) finding of a large border effect between US and Canadian provinces. Since then, there has been a great amount of research on this topic employing the gravity equation. This dissertation has two goals. The first goal is to review comprehensively the recent literature about the gravity equation, including its usages, econometric specifications, and the efforts to provide it with microeconomic foundations. The second goal is the estimation of the Brazilian border effect (or 'home-bias trade puzzle') using inter-state and international trade flow data. It is used a pooled cross-section Tobit model. The lowest border effect estimated was 15, which implies that Brazilian states trade among themselves 15 times more than they trade with foreign countries. Further research using industry disaggregated data is needed to qualify the estimated border effect with respect to which part of that effect can be attributed to actual trade costs and which part is the outcome of the endogenous location problem of the firm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em 2000, o governo federal xou uma lei que permitia as unidades federativas xarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e do Rio Grande do Sul adotaram essa lei, a partir de 2001 representando uma oportunidade privile- giada de avaliação dos impactos do salário mínimo. A nova lei ao reajustar de maneira diferenciada entre estados e grupos pro ssionais oferece uma fonte de variabilidade po- tencialmente exógena para estimação dos seus impactos . Outra vantagem é isolar os efeitos de mudanças de um preço mínimo sobre a demanda de trabalho dos impactos scais exercidos pelo salário mínimo no contexto brasileiro. Inicialmente, testamos a efetividade da nova lei utilizando a Pesquisa Nacional de Amostras por Domicílio (PNAD) usamos duas metodologias complementares, a saber: i) logits (binário e multinomial) aplicados a PNADS de vários anos tomadas conjunta- mente a m de calcular a probabilidade de acumulação de massa abaixo, igual e acima dos pisos estaduais e do SM; ii) regressões de média e quantílicas para diferenças de salários antes e depois da aplicação da legislação estadual comparando um grupo de tratamento com um grupo de controle. Posteriormente, lançamos mão do aspecto lon- gitudinal da Pesquisa Mensal de Emprego (PME) para aplicarmos em um contexto dinâmico, regressões quantílicas. Os resultados demonstram que a lei exerce algum im- pacto sobre os quantis de rendimentos situados em torno dos valores assumidos pelos pisos salariais mas ainda existe um nível alto de descumprimento da legislação. Dada esta evidência, buscamos adicionalmente avaliar os impactos sobre o nível de emprego da nova lei utilizando a adoção dos pisos estaduais de salário uminense e gaúcho como experimentos naturais. Aplicamos estimadores de diferença em diferença aos dados de painel rotativo derivados da PME. Obtivemos um impacto nulo no emprego, que con- tradiz o modelo usual de oferta e demanda de mercado de trabalho. Este fato pode ser lido como uma evidência adicional da pouca efetividade da lei. Em uma análise complementar, averiguamos a tentativa de implantação pelo estado da Bahia de um "salário mínimo estadual"de 180 reais em abril de 2000, opondo-se ao aumento de 151 reais xados pela União. Mas os resultados se mostraram contrários à lei dos pisos estaduais, ou seja, indicaram pouca efetividade também desta lei xada na Bahia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vivemos um momento de grande crescimento da construção naval no mundo, que é impulsionado pelo crescimento do comércio entre as nações, em um mundo cada vez mais globalizado. O mesmo se repete no Brasil. O principal objetivo deste trabalho é propor uma metodologia para o cálculo objetivo do valor a ser garantido ao cliente da indústria naval, de modo a criar os incentivos econômicos corretos para os artífices da relação principal-agente. Inicialmente descreverei a Tecnologia da Construção Naval e os problemas econômicos que encontramos, passando a seguir a expor o Mercado Naval, estando aí incluídos o lado consumidor e os produtores de navios, sendo eles nacionais ou internacionais. Finalmente passaremos ao detalhamento da solução de seguro proposta, com a formalização do tipo de seguro, nível de cobertura e monitoramento. Para tal utilizaremos a metodologia de Vector-Autorregression combinada a uma simulação de Monte Carlo. Os resultados encontrados são checados e apontamos os caminhos para aperfeiçoar a metodologia e possíveis usos alternativos para ela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesta Tese foram apresentadas algumas alternativas de antecipação do preço futuro do aço a partir do emprego de modelos econométricos. Estes modelos foram definidos em função da análise do comportamento, no longo prazo, entre as séries de preços do aço no Brasil vis-à-vis seus respectivos preços no exterior. A verificação deste comportamento de longo prazo foi realizada através do teste de cointegração. A partir da constatação da não cointegração dessas séries, foram definidos dois modelos, cujas previsões, para diversos períodos, foram aqui apresentadas. Foi feita uma análise comparativa, onde foram identificados o melhor modelo e para quais temporalidades de previsão são melhor empregados. Como foi aqui comprovado, o aço é um insumo primordial nos empreendimentos industriais. Considerando que, atualmente, os preços são demandados de forma firme, ou seja, sem possibilidade de alteração, faz-se necessária a identificação de mecanismos de antecipação dos movimentos futuros desta commodity, de modo que se possa considerá-los na definição do preço ofertado, reduzindo assim perdas por suas flutuações inesperadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As décadas mais recentes têm marcado a supremacia dos regimes econômicos que privilegiam as responsabilidades fiscal e monetária. De forma ainda mais destacada, o sistema de metas de inflação vem ganhando espaço, com a adesão de um número crescente de países. No Brasil, sua introdução em 1999 colocou a política monetária em grande evidência, alimentando um prolongado debate acerca dos méritos e desvantagens da priorização absoluta da estabilização monetária. Este trabalho parte de um resumo histórico das práticas de política monetária no Brasil republicano. A seguir, procura-se aferir a eficiência dessas políticas no período posterior à estabilização alcançada pelo Plano Real, com a descrição da ferramenta adotada, a Função Impulso-Resposta Generalizada. Os resultados obtidos com esse instrumento permitem concluir que a autoridade monetária tem sido bem sucedida na gestão do regime de metas de inflação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Banco Central brasileiro tem como principal instrumento de política monetária a taxa de juros de curto prazo (SELIC), apesar de sabermos que a economia é mais afetada pelas taxas mais longas, pois são essas que demonstram mais precisamente o cenário prospectivo de prazo mais coerente com os investimentos. O trabalho tem como principal objetivo, analisar de que forma esta transmissão de política monetária entre as taxas curtas e longa poderia ser melhorada, através de uma atuação mais ativa na gestão da dívida pública pré fixada. Para isso, definimos uma variável S, que é tratada como a elasticidade da taxa longa à variações na taxa de curto prazo. Em seguida, analisamos econometricamente, como esta variável varia de acordo com as seguintes variáveis escolhidas: percentual pré fixado da dívida pública local, prazo médio da dívida pública local pré fixada, um parâmetro fiscal e um parâmetro de risco. Começamos o trabalho discutindo o modelo de metas de inflação no Brasil, e a influência das taxas longas nas análises produzidas. Em seguida mostramos a evolução do perfil da dívida pública desde 2000, característica dos títulos colocados no mercado e prazos médios. Veremos que, apesar da indiscutível melhora do seu perfil, a dívida pública apresenta ainda características bastante "arriscadas" e longe do ideal. Discutimos as principais teoria à respeito da formação de estrutura a termo de juros e verificamos que a idéia de otimização entre as relações de oferta e demanda ao longo da curva é um dos fatores principais na determinação de nível e formato das curvas de juros mais longas. Baseados neste conceito resolvemos analisar de que forma a sensibilidade destas taxas longas se relaciona com o aumento do percentual de títulos pré fixados na dívida total. Em seguida, definimos nosso modelo econométrico, realizamos alguns testes e variações no modelo proposto e analisamos seus resultados. Terminamos o trabalho discutindo as conclusões encontradas através de nosso estudo e propondo formas para que a melhoria do canal de transmissão de política monetária possa ser uma prioridade por parte do Tesouro Nacional e Banco Central, e para que no futuro não haja necessidade de termos uma taxa Selic tão alta para atingirmos nossos objetivos inflacionários, através de uma melhora significativa no mecanismo de transmissão de política monetária.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho analisar acumulação de reservas internacionais por parte de países como Brasil, que acumulam reservas na tentativa de se proteger de crises externas bem como diminuir tal probabilidade. Desejamos analisar determinação do nível ótimo de reservas. Apresentaremos um breve histórico da literatura sobre acumulação de reservas. No estudo do Brasil, discutiremos nível ótimo de reservas internacionais brasileiras usando modelo de buffer stock, partir de uma abordagem de séries temporais, diferindo de trabalhos anteriores usando dados cross-section.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper investigates the income inequality generated by a jobsearch process when di§erent cohorts of homogeneous workers are allowed to have di§erent degrees of impatience. Using the fact the average wage under the invariant Markovian distribution is a decreasing function of the discount factor (Cysne (2004, 2006)), I show that the Lorenz curve and the between-cohort Gini coe¢ cient of income inequality can be easily derived in this case. An example with arbitrary measures regarding the wage o§ers and the distribution of time preferences among cohorts provides some insights into how much income inequality can be generated, and into how it varies as a function of the probability of unemployment and of the probability that the worker does not Önd a job o§er each period.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Our work is based on a simpliÖed heterogenous-agent shoppingtime economy in which economic agents present distinct productivities in the production of the consumption good, and di§erentiated access to transacting assets. The purpose of the model is to investigate whether, by focusing the analysis solely on endogenously determined shopping times, one can generate a positive correlation between ináation and income inequality. Our main result is to show that, provided the productivity of the interest-bearing asset in the transacting technology is high enough, it is true true that a positive link between ináation and income inequality is generated. Our next step is to show, through analysis of the steady-state equations, that our approach can be interpreted as a mirror image of the usual ináation-tax argument for income concentration. An example is o§ered to illustrate the mechanism.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper explores the use of an intertemporal job-search model in the investigation of within-cohort and between-cohort income inequality, the latter being generated by the heterogeneity of time preferences among cohorts of homogenous workers and the former by the cross-sectional turnover in the job market. It also offers an alternative explanation for the empirically-documented negative correlation between time preference and labor income. Under some speciÖc distributions regarding wage offers and time preferences, we show how the within-cohort and between-cohort Gini coe¢ cients of income distribution can be calculated, and how they vary as a function of the parameters of the model.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Several empirical studies in the literature have documented the existence of a positive correlation between income inequalitiy and unemployment. I provide a theoretical framework under which this correlation can be better understood. The analysis is based on a dynamic job search under uncertainty. I start by proving the uniqueness of a stationary distribution of wages in the economy. Drawing upon this distribution, I provide a general expression for the Gini coefficient of income inequality. The expression has the advantage of not requiring a particular specification of the distribution of wage offers. Next, I show how the Gini coefficient varies as a function of the parameters of the model, and how it can be expected to be positively correlated with the rate of unemployment. Two examples are offered. The first, of a technical nature, to show that the convergence of the measures implied by the underlying Markov process can fail in some cases. The second, to provide a quantitative assessment of the model and of the mechanism linking unemployment and inequality.