973 resultados para Agregação (Economia) - Modelos matematicos
Resumo:
We build a pricing kernel using only US domestic assets data and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our stochastic discount factor as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by pricing Lustig and Verdelhan (2007)'s foreign currency portfolios. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.
Resumo:
Using information on US domestic financial data only, we build a stochastic discount factor—SDF— and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our SDF as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets prices. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by pricing Lustig and Verdelhan (2007)’s foreign currency portfolios. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.
Resumo:
Tendo por base o trabalho realizado por Hyde e Sherif (2010) com dados do mercado inglês, foi desenvolvido estudo com o objetivo de avaliar a capacidade do spread de curto e longo prazo da taxa de juros de funcionar como indicador do crescimento futuro do consumo no Brasil. Tanto Hyde e Sherif (2010) como outros estudos realizados em países desenvolvidos indicaram relação positiva entre o spread de juros de curto e longo prazo e o crescimento do consumo. Entretanto, as análises empíricas realizadas neste estudo para o caso brasileiro, apresentaram resultados divergentes do esperado pela teoria, indicando relação negativa entre o spread de juros e o crescimento do consumo. Em algumas análises, os estudos não indicaram relação entre as variáveis. Foram discutidas possíveis razões para estes resultados contraintuitivos, tais como tamanho reduzido da amostra, nível da taxa de juros no Brasil e liquidez do mercado futuro de juros. Adicionalmente foram analisados os modelos teóricos C-CAPM (Consumption-based asset pricing model) e o modelo de consumo habitual desenvolvido por Campbell e Cochrane (1999) com a adaptação proposta por Wachter (2006). Os resultados encontrados no modelo C-CAPM divergiram do esperado, já que a estimativa do coeficiente relativo de aversão ao risco apresentou sinal negativo. Por outro lado, os resultados obtidos no modelo de Wachter (2006) ficaram em linha com o esperado na teoria, tanto em relação à significância dos parâmetros como aos respectivos sinais e magnitudes.
Resumo:
Este artigo avalia o impacto do imposto ISS no processo de convergência dos 645 municípios do estado de São Paulo entre 2000-2005. A presença de efeitos de dependência espacial é investigada incorporando-se um arcabouço de econometria espacial à análise, o qual é capaz de estudar o impacto do imposto sobre um determinado município e sobre seus vizinhos. Os resultados apontam para a existência de convergência dentre as regiões porém os efeitos de dependência espacial encontrados apresentam-se de forma diferente entre as regiões estudadas.
Resumo:
Using information on US domestic financial data only, we build a stochastic discount factor—SDF— and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our SDF as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets prices. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by comparing this out-of-sample results with the one obtained performing an in-sample exercise, where the return-based SDF captures sources of risk of a representative set of developed and emerging economies government bonds. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
This paper tests the optimality of consumption decisions at the aggregate level taking into account popular deviations from the canonical constant-relative-risk-aversion (CRRA) utility function model-rule of thumb and habit. First, based on the critique in Carroll (2001) and Weber (2002) of the linearization and testing strategies using euler equations for consumption, we provide extensive empirical evidence of their inappropriateness - a drawback for standard rule- of-thumb tests. Second, we propose a novel approach to test for consumption optimality in this context: nonlinear estimation coupled with return aggregation, where rule-of-thumb behavior and habit are special cases of an all encompassing model. We estimated 48 euler equations using GMM. At the 5% level, we only rejected optimality twice out of 48 times. Moreover, out of 24 regressions, we found the rule-of-thumb parameter to be statistically significant only twice. Hence, lack of optimality in consumption decisions represent the exception, not the rule. Finally, we found the habit parameter to be statistically significant on four occasions out of 24.
Resumo:
The Forward Premium Puzzle (FPP) is how the empirical observation of a negative relation between future changes in the spot rates and the forward premium is known. Modeling this forward bias as a risk premium and under weak assumptions on the behavior of the pricing kernel, we characterize the potential bias that is present in the regressions where the FPP is observed and we identify the necessary and sufficient conditions that the pricing kernel has to satisfy to account for the predictability of exchange rate movements. Next, we estimate the pricing kernel applying two methods: i) one, du.e to Araújo et aI. (2005), that exploits the fact that the pricing kernel is a serial correlation common feature of asset prices, and ii) a traditional principal component analysis used as a procedure 1;0 generate a statistical factor modeI. Then, using on the sample and out of the sample exercises, we are able to show that the same kernel that explains the Equity Premi um Puzzle (EPP) accounts for the FPP in all our data sets. This suggests that the quest for an economic mo deI that generates a pricing kernel which solves the EPP may double its prize by simultaneously accounting for the FPP.
Resumo:
We define a subgame perfect Nash equilibrium under Knightian uncertainty for two players, by means of a recursive backward induction procedure. We prove an extension of the Zermelo-von Neumann-Kuhn Theorem for games of perfect information, i. e., that the recursive procedure generates a Nash equilibrium under uncertainty (Dow and Werlang(1994)) of the whole game. We apply the notion for two well known games: the chain store and the centipede. On the one hand, we show that subgame perfection under Knightian uncertainty explains the chain store paradox in a one shot version. On the other hand, we show that subgame perfection under uncertainty does not account for the leaving behavior observed in the centipede game. This is in contrast to Dow, Orioli and Werlang(1996) where we explain by means of Nash equilibria under uncertainty (but not subgame perfect) the experiments of McKelvey and Palfrey(1992). Finally, we show that there may be nontrivial subgame perfect equilibria under uncertainty in more complex extensive form games, as in the case of the finitely repeated prisoner's dilemma, which accounts for cooperation in early stages of the game .
Resumo:
This article studies the interplay between fiscal rules, public investment and growth in Brazil. It is investigated if it would make sense to raise public investment and, if so, under which fiscal rule it is best to do it — whether through tax financing, debt financing, or a reduction of public consumption. We construct and simulate a competitive general equilibrium model, calibrated to Brazilian economy, in which public capital is a component of the production function and public consumption directly affects individuals’ well-being. After assessing the impacts of alternative fiscal rules, the paper concludes that the most desirable financing scheme is the reduction of public consumption, which dominates the others in terms of output and welfare gains. The model replicates the observed growth slowdown of the Brazilian economy when we increase taxes and reduce public capital formation to the levels observed after 1980 and shows that the growth impact of the expansion of tax collection in Brazil was much larger than that of public investment compression.
Resumo:
Based on three versions of a small macroeconomic model for Brazil, this paper presents empirical evidence on the effects of parameter uncertainty on monetary policy rules and on the robustness of optimal and simple rules over different model specifications. By comparing the optimal policy rule under parameter uncertainty with the rule calculated under purely additive uncertainty, we find that parameter uncertainty should make policymakers react less aggressively to the economy's state variables, as suggested by Brainard's "conservatism principIe", although this effect seems to be relatively small. We then informally investigate each rule's robustness by analyzing the performance of policy rules derived from each model under each one of the alternative models. We find that optimal rules derived from each model perform very poorly under alternative models, whereas a simple Taylor rule is relatively robusto We also fmd that even within a specific model, the Taylor rule may perform better than the optimal rule under particularly unfavorable realizations from the policymaker' s loss distribution function.
Resumo:
Este trabalho apresenta metodologia de mensuração e gestão de risco para empresas do ramo frigorífico. A ferramenta utilizada é conhecida como Earnings at Risk (EaR), e se adota uma visão top-down, que mostra a variação do resultado da empresa de acordo com variáveis explicativas de mercado e variáveis idiossincráticas. Através da eliminação de multicolinearidade entre essas variáveis com o uso da métrica de Análise de Componentes Principais (ACP), busca-se analisar como o novo EaR se comportaria frente ao enfoque usual, construído com um modelo de regressão linear múltipla. Variáveis dummy fazem parte do modelo de estimação do resultado futuro das empresas frigoríficas, relacionadas à ocorrência ou não de doenças que afetam o gado bovino, e à retirada de embargos econômicos de países importadores durante o período de análise. Ao fim do trabalho é verificado que as variáveis dummy não possuem relevância para a determinação de EaR, e que não se chega a conclusão de que o modelo de EaR com ACP se mostra melhor com menos variáveis, mantendo a mesma variância e significância estatística originais.