275 resultados para Oferta e procura - Modelos econométricos
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção).
Resumo:
Este estudo tem como objetivo analisar o desempenho de vários modelos econométricos ao prever Inflação . Iniciamos o trabalho utilizando como base de comparação para todos os modelos a tradicional curva de Phillips que usa a taxa de desemprego como variável explicativa para diferenças de preço. Dentre os modelos analisados temos univariados e bivariados, sendo estes últimos uma curva de Phillips alternativa já que apenas sustitui a variável desemprego por outra variável macroeconômica. Além destes modelos também comparamos o desempenho de previsão de modelos que usam como covariadas uma combinação das previsões dos modelos anteriores (univariados e bivariados). O resultado deste estudo aponta a combinação de modelos por "ridge regression" como uma técnica - dentre as analisadas para combinação de previsões - de menor erro de previsão sempre; sendo alcançado pela combinação da média em apenas um dos casos analisados. No entanto, a combinação de previsões não apresentou melhor resultado que algumas das covariadas testadas em modelos bivariados
Resumo:
Essa tese se propõe fazer uma comparação entre duas técnicas alternativas para estudo de impactos marginais de variáveis sócio-econômicas sobre as taxas de crescimento per-capita de grupos de países durante período de 1965 1985: regressão em sistemas de equações com dados em seções transversais, usada por Barro Sala-i-Martin (1995), entre outros, e a regressão em painel com coeficientes individuais. Tentaremos mostrar que os resultados associados certas variáveis são bastante diferentes procuraremos entender algumas causas dessas diferenças. Além disso, estaremos preocupados em avaliar como os resultados são afetados ao alterarmos conjunto de países estudado, em particular quando tomamos grupos de países com uma série de características semelhantes.
Resumo:
Mostramos que separar reguladores não benevolentes é a resposta institucional ótima quando os projetos regulados são grandes , i.e., apresentam benefício mar- ginal alto. Como separação impede que os reguladores se coordenem para se apro- priar de toda a renda informacional do agente quando sabem o tipo desse último, há um trade-o¤ entre poupança de renda informacional e e ciência alocativa, pois o jogo entre os reguladores induzido pela separação gera distorção em relação à alocação sob um único regulador. Quando a renda informacional em questão é grande, vale a pena a divisão de reguladores.
Resumo:
This Thesis is the result of my Master Degree studies at the Graduate School of Economics, Getúlio Vargas Foundation, from January 2004 to August 2006. am indebted to my Thesis Advisor, Professor Luiz Renato Lima, who introduced me to the Econometrics' world. In this Thesis, we study time-varying quantile process and we develop two applications, which are presented here as Part and Part II. Each of these parts was transformed in paper. Both papers were submitted. Part shows that asymmetric persistence induces ARCH effects, but the LMARCH test has power against it. On the other hand, the test for asymmetric dynamics proposed by Koenker and Xiao (2004) has correct size under the presence of ARCH errors. These results suggest that the LM-ARCH and the Koenker-Xiao tests may be used in applied research as complementary tools. In the Part II, we compare four different Value-at-Risk (VaR) methodologies through Monte Cario experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust method ologies have higher probability to predict VaRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate VaR for returns of São Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.
Resumo:
O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.
Brazilian international and inter-state trade flows: an exploratory analysis using the gravity model
Resumo:
Recent efforts toward a world with freer trade, like WTO/GATT or regional Preferential Trade Agreements(PTAs), were put in doubt after McCallum's(1995) finding of a large border effect between US and Canadian provinces. Since then, there has been a great amount of research on this topic employing the gravity equation. This dissertation has two goals. The first goal is to review comprehensively the recent literature about the gravity equation, including its usages, econometric specifications, and the efforts to provide it with microeconomic foundations. The second goal is the estimation of the Brazilian border effect (or 'home-bias trade puzzle') using inter-state and international trade flow data. It is used a pooled cross-section Tobit model. The lowest border effect estimated was 15, which implies that Brazilian states trade among themselves 15 times more than they trade with foreign countries. Further research using industry disaggregated data is needed to qualify the estimated border effect with respect to which part of that effect can be attributed to actual trade costs and which part is the outcome of the endogenous location problem of the firm.
Resumo:
Vivemos um momento de grande crescimento da construção naval no mundo, que é impulsionado pelo crescimento do comércio entre as nações, em um mundo cada vez mais globalizado. O mesmo se repete no Brasil. O principal objetivo deste trabalho é propor uma metodologia para o cálculo objetivo do valor a ser garantido ao cliente da indústria naval, de modo a criar os incentivos econômicos corretos para os artífices da relação principal-agente. Inicialmente descreverei a Tecnologia da Construção Naval e os problemas econômicos que encontramos, passando a seguir a expor o Mercado Naval, estando aí incluídos o lado consumidor e os produtores de navios, sendo eles nacionais ou internacionais. Finalmente passaremos ao detalhamento da solução de seguro proposta, com a formalização do tipo de seguro, nível de cobertura e monitoramento. Para tal utilizaremos a metodologia de Vector-Autorregression combinada a uma simulação de Monte Carlo. Os resultados encontrados são checados e apontamos os caminhos para aperfeiçoar a metodologia e possíveis usos alternativos para ela.
Resumo:
Nesta Tese foram apresentadas algumas alternativas de antecipação do preço futuro do aço a partir do emprego de modelos econométricos. Estes modelos foram definidos em função da análise do comportamento, no longo prazo, entre as séries de preços do aço no Brasil vis-à-vis seus respectivos preços no exterior. A verificação deste comportamento de longo prazo foi realizada através do teste de cointegração. A partir da constatação da não cointegração dessas séries, foram definidos dois modelos, cujas previsões, para diversos períodos, foram aqui apresentadas. Foi feita uma análise comparativa, onde foram identificados o melhor modelo e para quais temporalidades de previsão são melhor empregados. Como foi aqui comprovado, o aço é um insumo primordial nos empreendimentos industriais. Considerando que, atualmente, os preços são demandados de forma firme, ou seja, sem possibilidade de alteração, faz-se necessária a identificação de mecanismos de antecipação dos movimentos futuros desta commodity, de modo que se possa considerá-los na definição do preço ofertado, reduzindo assim perdas por suas flutuações inesperadas.
Resumo:
O objetivo deste trabalho analisar acumulação de reservas internacionais por parte de países como Brasil, que acumulam reservas na tentativa de se proteger de crises externas bem como diminuir tal probabilidade. Desejamos analisar determinação do nível ótimo de reservas. Apresentaremos um breve histórico da literatura sobre acumulação de reservas. No estudo do Brasil, discutiremos nível ótimo de reservas internacionais brasileiras usando modelo de buffer stock, partir de uma abordagem de séries temporais, diferindo de trabalhos anteriores usando dados cross-section.
Resumo:
Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.
Resumo:
Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise based upon data from a well known survey is also presented. Overall, theoretical and empirical results show promise for the feasible bias-corrected average forecast.