892 resultados para Oferta e procura – Previsão - Modelos econométricos
Resumo:
Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção).
Resumo:
Essa tese se propõe fazer uma comparação entre duas técnicas alternativas para estudo de impactos marginais de variáveis sócio-econômicas sobre as taxas de crescimento per-capita de grupos de países durante período de 1965 1985: regressão em sistemas de equações com dados em seções transversais, usada por Barro Sala-i-Martin (1995), entre outros, e a regressão em painel com coeficientes individuais. Tentaremos mostrar que os resultados associados certas variáveis são bastante diferentes procuraremos entender algumas causas dessas diferenças. Além disso, estaremos preocupados em avaliar como os resultados são afetados ao alterarmos conjunto de países estudado, em particular quando tomamos grupos de países com uma série de características semelhantes.
Resumo:
Mostramos que separar reguladores não benevolentes é a resposta institucional ótima quando os projetos regulados são grandes , i.e., apresentam benefício mar- ginal alto. Como separação impede que os reguladores se coordenem para se apro- priar de toda a renda informacional do agente quando sabem o tipo desse último, há um trade-o¤ entre poupança de renda informacional e e ciência alocativa, pois o jogo entre os reguladores induzido pela separação gera distorção em relação à alocação sob um único regulador. Quando a renda informacional em questão é grande, vale a pena a divisão de reguladores.
Resumo:
This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.
Resumo:
O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.
Brazilian international and inter-state trade flows: an exploratory analysis using the gravity model
Resumo:
Recent efforts toward a world with freer trade, like WTO/GATT or regional Preferential Trade Agreements(PTAs), were put in doubt after McCallum's(1995) finding of a large border effect between US and Canadian provinces. Since then, there has been a great amount of research on this topic employing the gravity equation. This dissertation has two goals. The first goal is to review comprehensively the recent literature about the gravity equation, including its usages, econometric specifications, and the efforts to provide it with microeconomic foundations. The second goal is the estimation of the Brazilian border effect (or 'home-bias trade puzzle') using inter-state and international trade flow data. It is used a pooled cross-section Tobit model. The lowest border effect estimated was 15, which implies that Brazilian states trade among themselves 15 times more than they trade with foreign countries. Further research using industry disaggregated data is needed to qualify the estimated border effect with respect to which part of that effect can be attributed to actual trade costs and which part is the outcome of the endogenous location problem of the firm.
Resumo:
Vivemos um momento de grande crescimento da construção naval no mundo, que é impulsionado pelo crescimento do comércio entre as nações, em um mundo cada vez mais globalizado. O mesmo se repete no Brasil. O principal objetivo deste trabalho é propor uma metodologia para o cálculo objetivo do valor a ser garantido ao cliente da indústria naval, de modo a criar os incentivos econômicos corretos para os artífices da relação principal-agente. Inicialmente descreverei a Tecnologia da Construção Naval e os problemas econômicos que encontramos, passando a seguir a expor o Mercado Naval, estando aí incluídos o lado consumidor e os produtores de navios, sendo eles nacionais ou internacionais. Finalmente passaremos ao detalhamento da solução de seguro proposta, com a formalização do tipo de seguro, nível de cobertura e monitoramento. Para tal utilizaremos a metodologia de Vector-Autorregression combinada a uma simulação de Monte Carlo. Os resultados encontrados são checados e apontamos os caminhos para aperfeiçoar a metodologia e possíveis usos alternativos para ela.
Resumo:
O objetivo deste trabalho analisar acumulação de reservas internacionais por parte de países como Brasil, que acumulam reservas na tentativa de se proteger de crises externas bem como diminuir tal probabilidade. Desejamos analisar determinação do nível ótimo de reservas. Apresentaremos um breve histórico da literatura sobre acumulação de reservas. No estudo do Brasil, discutiremos nível ótimo de reservas internacionais brasileiras usando modelo de buffer stock, partir de uma abordagem de séries temporais, diferindo de trabalhos anteriores usando dados cross-section.
Resumo:
Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.
Resumo:
Initial endogenous growth models emphasized the importance of external effects and increasing retums in explaining growth. Empirically, this hypothesis can be confumed if the coefficient of physical capital per hour is unity in the aggregate production function. Previous estimates using time series data rejected this hypothesis, although cross-country estimates did nol The problem lies with the techniques employed, which are unable to capture low-frequency movements of high-frequency data. Using cointegration, new time series evidence confum the theory and conform to cross-country evidence. The implied Solow residual, which takes into account externaI effects to aggregate capital, has its behavior analyzed. The hypothesis that it is explained by government expenditures on infrasttucture is confIrmed. This suggests a supply-side role for government affecting productivity.
Resumo:
Neri e Xerez (2003) discutem a racionalidade econômica para o desenvolvimento de um sistema de metas sociais a partir de variantes estáticas do modelo agente-principal. Este sistema atua como forma do governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O presente trabalho desenvolve algumas extensões deste modelo com diferentes possibilidades de renegociação ao longo do tempo assim como a presença de choques. Demonstramos num contexto dinâmico com contratos completos que a melhor forma de aumentar a eficiência alocativa dos fundos transferidos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências expost criadas por não se usar a informação nova revelada ao longo do processo. Na segunda parte do artigo incorporamos a incidência de choques aleatórios. Mostramos que, quando os resultados sociais não dependem somente dos investimentos realizados pelo município, mas também de fatores estocásticos, o contrato estabelecido entre governo federal e municípios, deve estipular metas mais altas de forma a prevenir a ocorrência de estados ruins da natureza. Além disso, contratos lineares nesse tipo de situação são pró-cíclicos, reduzindo as transferências governamentais justamente quando o município sofre um choque negativo. Para evitar esse tipo de situação, mostramos que o estabelecimento de contratos que utilizam mecanismos de comparação de performance entre os municípios elimina o efeito pró-cíclico, garantindo aos municípios uma transferência fixa quando eles investem na área social.
Resumo:
Em 2000, o governo federal fixou uma lei que permitia as Unidades Federativas fixarem pisos salariais acima do salário mínimo, representando uma oportunidade privilegiada de avaliação dos seus impactos. A nova lei oferece uma fonte de variabilidade potencialmente exógena além de isolar os efeitos de mudanças do salário mínimo sobre a demanda de trabalho dos impactos fiscais exercidos no contexto brasileiro. Inicialmente, testamos a efetividade da lei, utilizando logits multinomiais aplicados a PNAD/IBGE a fim de calcular a probabilidade de acumulação de massa de salários abaixo, igual e acima dos pisos estaduais. Posteriormente, aplicamos regressões quantílicas para diferenças de salários e de ocupação antes e depois da aplicação da lei comparando grupos de tratamento e controle através de dados longitudinais da PME/IBGE. Os resultados demonstram uma baixa efetividade e um alto descumprimento da lei nos estados aonde foi aplicada.
Resumo:
Diversos estudos de Finanças Corporativas consideram os custos associados aos ajustes da estrutura de capital das empresas irrelevantes tanto na forma quanto em magnitude. Este estudo analisou empiricamente a influência dos custos de ajustamento na dinâmica dos ajustes da estrutura de capital de empresas brasileiras de capital aberto no período de 1999 a 2007. A alavancagem foi abordada sob três diferentes cenários, considerando a presença de custos fixos, custos proporcionais e por uma composição de custos fixos e proporcionais através de simulações utilizando um modelo reduzido da estrutura de capital. Em seguida a análise não paramétrica da amostra revelou que as empresas apresentam um comportamento dinâmico em suas decisões de financiamento para o ajuste da estruturas de capital, mas que não se revelou contínuo. A utilização de um modelo de duration mostrou-se adequado para mensurar o intervalo de tempo entre os ajustes da estrutura de capital das empresas. Os resultados são extremamente relevantes e suportam a teoria de um comportamento de rebalanceamento dinâmico pelas empresas de suas estruturas de capital em torno de um intervalo ótimo. Entretanto os ajustes não ocorrem de forma imediata e a persistência de choques à estrutura de capital deve-se em sua maior parte aos custos associados aos ajustes do que a uma possível indiferença à estrutura de capital. . Este trabalho constitui-se como pioneiro no mercado brasileiro acerca dos custos de ajustamento da estrutura de capital e abre espaço para a discussão do comportamento ótimo em torno da estrutura de capital de empresas nacionais.