500 resultados para Investimentos - Análise - Modelos econométricos
Resumo:
We analize a discrete type version of a common agency model with informed principals of Martimort and Moreira (2005) in the context of lobby games. We begin discussing issues related to the common values nature of the model, i.e.the agent cares directly about the principal’s utility function. With this feature the equilibrium of Martimort and Moreira (2005) is not valid. We argue in favor of one solution, although we are not able to fully characterize the equilibrium in this context. We then turn to an application: a modification of the Grossman and Helpman (1994) model of lobbying for tariff protection to incoporate assimetric information (but disconsidering the problem of common values) in the lobbies objective function. We show that the main results of the original model do not hold and that lobbies may behave less agressively towards the police maker when there is private information in the lobbies valuation for the tariffs.
Resumo:
O estudo gera estimativas para a perda de Bem-Estar que resulta da estrutura da mercado vigente para o setor de cerveja no Brasil. Através de um modelo econométrico com sistemas de equações simultâneas, colocados sob uma estrutura de painel, são estimadas as elasticidades-preço e preço-cruzadas que exibem, via de regra, o comportamento previsto pela teoria. Estas quando empregadas a um modelo de variações conjecturais desenvolvido para oligopólio, fornecem uma medida de perda de bem-estar como proporção da receita total do setor. O exercício é repetido para diferentes valores do parâmetro de variação conjectural, e diferentes suposições a respeito da eficiência das firmas participantes. Os resultados indicam que as perdas associadas ao poder de mercado são significativas.
Resumo:
Neste trabalho, estudaremos as possibilidades de existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Mais especificamente, estudaremos a relação entre o nsco empírico dos segurados, supostamente uma informação assimétrica, e sua demanda por cobertura. Utilizando uma extensa e detalhada base de dados, obtida junto a Superintendência de Seguros Privados (SUSEP), implementamos os principais testes econométricos existentes na literatura (paramétricas e semi paramétricas) para verificar a existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Inicialmente, replicamos os testes propostos por Chiappori e Salanié (2000) e Dionne, Gouriéroux e Vanasse (2001) e obtivemos o mesmo resultado: ausência de dependência condicional entre cobertura con tratada e risco empírico. Porém, constatamos que este resultado não é robusto a alterações marginais na metodologia de teste. Em seguida, estudamos uma característica peculiar dos contratos brasileiros: a não-monotonicidade das coberturas. Veremos que segurados mais arriscados terão incentivos em demandar contratos com franquias maiores (e, portanto, com menores coberturas). Após exaustivos testes, constatamos que tal característica inverte, de fato, o sinal da correlação entre cobertura e risco. Por fim, testamos se os prêmios dos contratos de seguro são funções lineares da cobertura. Constatamos que sim. Com isso, concluímos que as seguradoras não utilizam o par prêmio/ cobertura para separar os segurados de acordo com seu nsco (tal como prevê os modelos que consideram a existência de seleção adversa nesse mercado). Os resultados obtidos neste trabalho sugerem que, no mínimo, não devemos ignorar a possibilidade de existência de assimetria de informação relevante no mercado segurador brasileiro. Sendo assim, sugerimos que o apreçamento do risco nos contratos de seguro não deva se valer apenas de ferramentas atuariais, tal como é feito atualmente, mas deve considerar também os incentivos implícitos que os contratos de seguro exercem sobre o comportamento (arriscado) dos segurados.
Resumo:
Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Este estudo tem como objetivo analisar o desempenho de vários modelos econométricos ao prever Inflação . Iniciamos o trabalho utilizando como base de comparação para todos os modelos a tradicional curva de Phillips que usa a taxa de desemprego como variável explicativa para diferenças de preço. Dentre os modelos analisados temos univariados e bivariados, sendo estes últimos uma curva de Phillips alternativa já que apenas sustitui a variável desemprego por outra variável macroeconômica. Além destes modelos também comparamos o desempenho de previsão de modelos que usam como covariadas uma combinação das previsões dos modelos anteriores (univariados e bivariados). O resultado deste estudo aponta a combinação de modelos por "ridge regression" como uma técnica - dentre as analisadas para combinação de previsões - de menor erro de previsão sempre; sendo alcançado pela combinação da média em apenas um dos casos analisados. No entanto, a combinação de previsões não apresentou melhor resultado que algumas das covariadas testadas em modelos bivariados
Resumo:
Mostramos que separar reguladores não benevolentes é a resposta institucional ótima quando os projetos regulados são grandes , i.e., apresentam benefício mar- ginal alto. Como separação impede que os reguladores se coordenem para se apro- priar de toda a renda informacional do agente quando sabem o tipo desse último, há um trade-o¤ entre poupança de renda informacional e e ciência alocativa, pois o jogo entre os reguladores induzido pela separação gera distorção em relação à alocação sob um único regulador. Quando a renda informacional em questão é grande, vale a pena a divisão de reguladores.
Resumo:
O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.
Brazilian international and inter-state trade flows: an exploratory analysis using the gravity model
Resumo:
Recent efforts toward a world with freer trade, like WTO/GATT or regional Preferential Trade Agreements(PTAs), were put in doubt after McCallum's(1995) finding of a large border effect between US and Canadian provinces. Since then, there has been a great amount of research on this topic employing the gravity equation. This dissertation has two goals. The first goal is to review comprehensively the recent literature about the gravity equation, including its usages, econometric specifications, and the efforts to provide it with microeconomic foundations. The second goal is the estimation of the Brazilian border effect (or 'home-bias trade puzzle') using inter-state and international trade flow data. It is used a pooled cross-section Tobit model. The lowest border effect estimated was 15, which implies that Brazilian states trade among themselves 15 times more than they trade with foreign countries. Further research using industry disaggregated data is needed to qualify the estimated border effect with respect to which part of that effect can be attributed to actual trade costs and which part is the outcome of the endogenous location problem of the firm.
Resumo:
Vivemos um momento de grande crescimento da construção naval no mundo, que é impulsionado pelo crescimento do comércio entre as nações, em um mundo cada vez mais globalizado. O mesmo se repete no Brasil. O principal objetivo deste trabalho é propor uma metodologia para o cálculo objetivo do valor a ser garantido ao cliente da indústria naval, de modo a criar os incentivos econômicos corretos para os artífices da relação principal-agente. Inicialmente descreverei a Tecnologia da Construção Naval e os problemas econômicos que encontramos, passando a seguir a expor o Mercado Naval, estando aí incluídos o lado consumidor e os produtores de navios, sendo eles nacionais ou internacionais. Finalmente passaremos ao detalhamento da solução de seguro proposta, com a formalização do tipo de seguro, nível de cobertura e monitoramento. Para tal utilizaremos a metodologia de Vector-Autorregression combinada a uma simulação de Monte Carlo. Os resultados encontrados são checados e apontamos os caminhos para aperfeiçoar a metodologia e possíveis usos alternativos para ela.
Resumo:
O objetivo deste trabalho analisar acumulação de reservas internacionais por parte de países como Brasil, que acumulam reservas na tentativa de se proteger de crises externas bem como diminuir tal probabilidade. Desejamos analisar determinação do nível ótimo de reservas. Apresentaremos um breve histórico da literatura sobre acumulação de reservas. No estudo do Brasil, discutiremos nível ótimo de reservas internacionais brasileiras usando modelo de buffer stock, partir de uma abordagem de séries temporais, diferindo de trabalhos anteriores usando dados cross-section.
Resumo:
Using vector autoregressive (VAR) models and Monte-Carlo simulation methods we investigate the potential gains for forecasting accuracy and estimation uncertainty of two commonly used restrictions arising from economic relationships. The Örst reduces parameter space by imposing long-term restrictions on the behavior of economic variables as discussed by the literature on cointegration, and the second reduces parameter space by imposing short-term restrictions as discussed by the literature on serial-correlation common features (SCCF). Our simulations cover three important issues on model building, estimation, and forecasting. First, we examine the performance of standard and modiÖed information criteria in choosing lag length for cointegrated VARs with SCCF restrictions. Second, we provide a comparison of forecasting accuracy of Ötted VARs when only cointegration restrictions are imposed and when cointegration and SCCF restrictions are jointly imposed. Third, we propose a new estimation algorithm where short- and long-term restrictions interact to estimate the cointegrating and the cofeature spaces respectively. We have three basic results. First, ignoring SCCF restrictions has a high cost in terms of model selection, because standard information criteria chooses too frequently inconsistent models, with too small a lag length. Criteria selecting lag and rank simultaneously have a superior performance in this case. Second, this translates into a superior forecasting performance of the restricted VECM over the VECM, with important improvements in forecasting accuracy ñreaching more than 100% in extreme cases. Third, the new algorithm proposed here fares very well in terms of parameter estimation, even when we consider the estimation of long-term parameters, opening up the discussion of joint estimation of short- and long-term parameters in VAR models.
Resumo:
Lucas (1987) has shown the surprising result that the welfare cost of business cycles is quite small. Using standard assumptions on preferences and a fully-áedged econometric model we computed the welfare costs of macroeconomic uncertainty for the post-WWII era using the multivariate Beveridge-Nelson decomposition for trends and cycles, which considers not only business-cycle uncertainty but also uncertainty from the stochastic trend in consumption. The post-WWII period is relatively quiet, with the welfare costs of uncertainty being about 0:9% of per-capita consumption. Although changing the decomposition method changed substantially initial results, the welfare cost of uncertainty is qualitatively small in the post-WWII era - about $175.00 a year per-capita in the U.S. We also computed the marginal welfare cost of macroeconomic uncertainty using this same technique. It is about twice as large as the welfare cost ñ$350.00 a year per-capita.
Resumo:
In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise based upon data from a well known survey is also presented. Overall, theoretical and empirical results show promise for the feasible bias-corrected average forecast.