958 resultados para Economia - Modelos estatísticos
Resumo:
Este trabalho estima, usando o método generalizado dos momentos e dados brasileiros, os parâmetros estruturais do modelo CCAPM (consumption capital asset pricing model) a partir de três classes de funções utilidade distintas: função utilidade potência (CES/CRRA), utilidade com hábito externo, e aversão ao desapontamento (Kreps-Porteus). Estes parâmetros estruturais estão associados à aversão ao risco, à elasticidade de substituição intertemporal no consumo e a taxa de desconto intertemporal da utilidade futura, o foco central desse artigo. Os resultados aqui obtidos são analisados e comparados com resultados anteriores para dados brasileiros e americanos.
Resumo:
Consumption is an important macroeconomic aggregate, being about 70% of GNP. Finding sub-optimal behavior in consumption decisions casts a serious doubt on whether optimizing behavior is applicable on an economy-wide scale, which, in turn, challenge whether it is applicable at all. This paper has several contributions to the literature on consumption optimality. First, we provide a new result on the basic rule-of-thumb regression, showing that it is observational equivalent to the one obtained in a well known optimizing real-business-cycle model. Second, for rule-of-thumb tests based on the Asset-Pricing Equation, we show that the omission of the higher-order term in the log-linear approximation yields inconsistent estimates when lagged observables are used as instruments. However, these are exactly the instruments that have been traditionally used in this literature. Third, we show that nonlinear estimation of a system of N Asset-Pricing Equations can be done efficiently even if the number of asset returns (N) is high vis-a-vis the number of time-series observations (T). We argue that efficiency can be restored by aggregating returns into a single measure that fully captures intertemporal substitution. Indeed, we show that there is no reason why return aggregation cannot be performed in the nonlinear setting of the Pricing Equation, since the latter is a linear function of individual returns. This forms the basis of a new test of rule-of-thumb behavior, which can be viewed as testing for the importance of rule-of-thumb consumers when the optimizing agent holds an equally-weighted portfolio or a weighted portfolio of traded assets. Using our setup, we find no signs of either rule-of-thumb behavior for U.S. consumers or of habit-formation in consumption decisions in econometric tests. Indeed, we show that the simple representative agent model with a CRRA utility is able to explain the time series data on consumption and aggregate returns. There, the intertemporal discount factor is significant and ranges from 0.956 to 0.969 while the relative risk-aversion coefficient is precisely estimated ranging from 0.829 to 1.126. There is no evidence of rejection in over-identifying-restriction tests.
Resumo:
We build a pricing kernel using only US domestic assets data and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our stochastic discount factor as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by pricing Lustig and Verdelhan (2007)'s foreign currency portfolios. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.
Resumo:
This paper considers the general problem of Feasible Generalized Least Squares Instrumental Variables (FG LS IV) estimation using optimal instruments. First we summarize the sufficient conditions for the FG LS IV estimator to be asymptotic ally equivalent to an optimal G LS IV estimator. Then we specialize to stationary dynamic systems with stationary VAR errors, and use the sufficient conditions to derive new moment conditions for these models. These moment conditions produce useful IVs from the lagged endogenous variables, despite the correlation between errors and endogenous variables. This use of the information contained in the lagged endogenous variables expands the class of IV estimators under consideration and there by potentially improves both asymptotic and small-sample efficiency of the optimal IV estimator in the class. Some Monte Carlo experiments compare the new methods with those of Hatanaka [1976]. For the DG P used in the Monte Carlo experiments, asymptotic efficiency is strictly improved by the new IVs, and experimental small-sample efficiency is improved as well.
Resumo:
Using information on US domestic financial data only, we build a stochastic discount factor—SDF— and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our SDF as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets prices. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by pricing Lustig and Verdelhan (2007)’s foreign currency portfolios. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.
Resumo:
Tendo por base o trabalho realizado por Hyde e Sherif (2010) com dados do mercado inglês, foi desenvolvido estudo com o objetivo de avaliar a capacidade do spread de curto e longo prazo da taxa de juros de funcionar como indicador do crescimento futuro do consumo no Brasil. Tanto Hyde e Sherif (2010) como outros estudos realizados em países desenvolvidos indicaram relação positiva entre o spread de juros de curto e longo prazo e o crescimento do consumo. Entretanto, as análises empíricas realizadas neste estudo para o caso brasileiro, apresentaram resultados divergentes do esperado pela teoria, indicando relação negativa entre o spread de juros e o crescimento do consumo. Em algumas análises, os estudos não indicaram relação entre as variáveis. Foram discutidas possíveis razões para estes resultados contraintuitivos, tais como tamanho reduzido da amostra, nível da taxa de juros no Brasil e liquidez do mercado futuro de juros. Adicionalmente foram analisados os modelos teóricos C-CAPM (Consumption-based asset pricing model) e o modelo de consumo habitual desenvolvido por Campbell e Cochrane (1999) com a adaptação proposta por Wachter (2006). Os resultados encontrados no modelo C-CAPM divergiram do esperado, já que a estimativa do coeficiente relativo de aversão ao risco apresentou sinal negativo. Por outro lado, os resultados obtidos no modelo de Wachter (2006) ficaram em linha com o esperado na teoria, tanto em relação à significância dos parâmetros como aos respectivos sinais e magnitudes.
Resumo:
Vários estudos foram realizados pela academia brasileira sobre desenvolvimento e aplicabilidade de modelos estatísticos de credit scoring e portfólio de crédito. Porém, faltam estudos relacionados sobre como estes modelos são empregados pelas empresas brasileiras. Esta dissertação apresenta uma pesquisa, até então inédita, sobre como as instituições financeiras brasileiras administram seus sistemas de credit scoring e suas carteiras de crédito. Foram coletados dados, por meio de um questionário, dos principais bancos e financeiras do mercado brasileiro. Para a análise dos resultados, as repostas foram divididas em dois grupos: bancos e financeiras. Os resultados mostraram empregos de métodos diferentes entre os grupos devido a suas características operacionais.
Resumo:
Este artigo avalia o impacto do imposto ISS no processo de convergência dos 645 municípios do estado de São Paulo entre 2000-2005. A presença de efeitos de dependência espacial é investigada incorporando-se um arcabouço de econometria espacial à análise, o qual é capaz de estudar o impacto do imposto sobre um determinado município e sobre seus vizinhos. Os resultados apontam para a existência de convergência dentre as regiões porém os efeitos de dependência espacial encontrados apresentam-se de forma diferente entre as regiões estudadas.
Resumo:
Using information on US domestic financial data only, we build a stochastic discount factor—SDF— and check whether it accounts for foreign markets stylized facts that escape consumption based models. By interpreting our SDF as the projection of a pricing kernel from a fully specified model in the space of returns, our results indicate that a model that accounts for the behavior of domestic assets goes a long way toward accounting for the behavior of foreign assets prices. We address predictability issues associated with the forward premium puzzle by: i) using instruments that are known to forecast excess returns in the moments restrictions associated with Euler equations, and; ii) by comparing this out-of-sample results with the one obtained performing an in-sample exercise, where the return-based SDF captures sources of risk of a representative set of developed and emerging economies government bonds. Our results indicate that the relevant state variables that explain foreign-currency market asset prices are also the driving forces behind U.S. domestic assets behavior.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
O presente trabalho visa discutir os fatores que determinam a violência policial. Para tanto, são estudados os homicídios causados por policiais. A hipótese colocada é a de que há uma relação entre a orientação política dos Governadores dos Estados e a qualidade institucional das polícias e o número de homicídios causados anualmente por policiais em cada Estado. A base teórica visa definir um ciclo esquemático onde se relacionam os conceitos do monopólio do uso da força e a violência policial. A ideia é a de que esses dois conceitos são mantém uma relação de gênese e fonte de sustentação. No entanto, de forma a se aprofundar a discussão, são trabalhados conceitos intermediários que irão influir nessa relação, quais sejam, abordagem histórica, militarismo, direitos humanos, mandato policial, poder de polícia, relação entre polícia e sociedade e questões sociais. Como o estudo se foca em homicídios causados por policiais, é colocada como base do trabalho as polícias militares, por assumir-se que esse tipo de violência seja mais típico dessas corporações. Conforme é demonstrado na base teórica, as polícias civis tendem a recorrer à tortura quando extrapolam seus deveres legais. Para a pesquisa empírica são elaborados modelos estatísticos aos quais é aplicada a metodologia de dados em painel. Nos modelos são colocadas como variáveis independentes medidas de orientação política dos governadores de 20 Estados brasileiros e é analisado o período de 2003 a 2010. Para completar os modelos são controladas variáveis de sociodemográficas e são criadas duas variáveis para expressar a qualidade institucional das Polícias militares, sendo elas os anos de existência dos Cursos de Formação de Oficiais e anos médios de escolaridade das tropas. Como achado de pesquisa resta comprovado que são determinantes da violência policial: a orientação política do governador de Estado, a desigualdade de renda, o número de homicídios registrados e a escolaridade média da tropa da PM. Em seguida, para aprimorar a ideia da qualidade institucional, é elaborada uma comparação entre as Polícias Militares do Rio de Janeiro e de Minas Gerais, onde é aprofundado o tema levando-se em conta outras questões institucionais que vão além da formação dos policiais.
Resumo:
O presente trabalho apresenta um estudo experimental sobre o desempenho de reforços de pavimentos asfálticos de uma via urbana com elevado volume de tráfego comercial pesado no município de São Paulo, monitorados durante quatro anos desde a mais recente restauração executada. A pesquisa envolveu o acompanhamento sistemático de seções pré-selecionadas na Avenida dos Bandeirantes, por meio de medidas de irregularidade longitudinal com um medidor tipo resposta bem como do trincamento superficial com o mapeamento e registros realizados em campo. A Avenida dos Bandeirantes é o principal corredor de interligação entre as vias localizadas no Oeste do Estado de São Paulo com o Porto de Santos, absorvendo 58% do total de veículos que passam pela Região Metropolitana, totalizando aproximadamente de 250.000 veículos/dia (em ambos os sentidos), sendo destes, cerca de 20.000 caminhões. Combase em dados levantados em campo e em projetos de restauração anteriormente realizadosforam desenvolvidos modelos empíricos de previsão de desempenho dos reforçosde pavimentos asfálticos,levando em consideração fatores relevantes para seu comportamento. Para isto, foram testados modelos lineares com diferentes estruturas de covariância e também modelos de regressão logística, que ao final mostraram-se mais conservadores que aqueles empregados na previsão de desempenho do programa HDM-4, para as condições do problema, no que tange à evolução do trincamento. No caso de previsão de irregularidade, observaram-se resultados similares entre os modelos desenvolvidos e aqueles preconizados pelo programa HDM-4. Fornecer suporte para decisões relacionadas à gerência de manutenção de pavimentos urbanos de grandes metrópoles e considerar modelos estatísticos ainda pouco utilizados para prever desempenho foram as principais contribuições buscadas durante a realização da pesquisa.
Resumo:
This paper tests the optimality of consumption decisions at the aggregate level taking into account popular deviations from the canonical constant-relative-risk-aversion (CRRA) utility function model-rule of thumb and habit. First, based on the critique in Carroll (2001) and Weber (2002) of the linearization and testing strategies using euler equations for consumption, we provide extensive empirical evidence of their inappropriateness - a drawback for standard rule- of-thumb tests. Second, we propose a novel approach to test for consumption optimality in this context: nonlinear estimation coupled with return aggregation, where rule-of-thumb behavior and habit are special cases of an all encompassing model. We estimated 48 euler equations using GMM. At the 5% level, we only rejected optimality twice out of 48 times. Moreover, out of 24 regressions, we found the rule-of-thumb parameter to be statistically significant only twice. Hence, lack of optimality in consumption decisions represent the exception, not the rule. Finally, we found the habit parameter to be statistically significant on four occasions out of 24.
Resumo:
The Forward Premium Puzzle (FPP) is how the empirical observation of a negative relation between future changes in the spot rates and the forward premium is known. Modeling this forward bias as a risk premium and under weak assumptions on the behavior of the pricing kernel, we characterize the potential bias that is present in the regressions where the FPP is observed and we identify the necessary and sufficient conditions that the pricing kernel has to satisfy to account for the predictability of exchange rate movements. Next, we estimate the pricing kernel applying two methods: i) one, du.e to Araújo et aI. (2005), that exploits the fact that the pricing kernel is a serial correlation common feature of asset prices, and ii) a traditional principal component analysis used as a procedure 1;0 generate a statistical factor modeI. Then, using on the sample and out of the sample exercises, we are able to show that the same kernel that explains the Equity Premi um Puzzle (EPP) accounts for the FPP in all our data sets. This suggests that the quest for an economic mo deI that generates a pricing kernel which solves the EPP may double its prize by simultaneously accounting for the FPP.