934 resultados para Specification


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo dessa dissertação é analisar o impacto dos movimentos inesperados de variáveis macroeconômicas nos retornos das ações de empresas de diferentes setores. As variáveis macroeconômicas estudadas serão: produto, juros, inflação e preço de commodities. Estudam-se alguns modelos através de diferentes técnicas de regressão para se chegar àquele que tem a melhor especificação. Com o objetivo de melhorar o poder de explicação dos modelos são utilizados os três fatores de Fama e French como variáveis explicativas e outro modelo que além dos fatores de Fama e French incluiu também momentum. Procura-se analisar a magnitude do impacto dos movimentos inesperados das variáveis macroeconômicas e suas relevâncias estatísticas a cada setor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas tempo-real embarcados demanda novas metodologias e ferramentas para gerenciar os problemas de projeto, análise, integração e validação de sistemas complexos. Este trabalho aborda o tema co-projeto de sistemas tempo-real embarcados, propondo estratégias para a integração das fases iniciais de modelagem de um sistema tempo-real embarcado com as fases subseqüentes do projeto, como a implementação do software e do hardware. É proposto um framework orientado a objetos que permite a criação de modelos orientados a objetos de sistemas tempo-real embarcados, utilizando conceitos temporais similares aos propostos em UML-RT (ou mais especificamente no UML Profile for Schedulability, Performance and Time). É proposta uma estratégia de mapeamento dos requisitos temporais dos diagramas UMLRT para uma interface de programação (API) baseada na “Especificação Tempo-Real para Java” (Real-Time Specification for Java ou RTSJ), a qual pode ser executada tanto em software – em programas RTSJ executando em máquinas virtuais Java (JVM) tempo-real – ou em hardware – em processadores Java Tempo-Real. Para permitir o mapeamento para hardware são propostas extensões tempo-real ao processador Java FemtoJava, desenvolvido no âmbito de dissertações de mestrado e projetos de pesquisa no PPGC, criando-se um novo processador tempo-real denominado de RT-FemtoJava. Dentre as extensões propostas ao processador FemtoJava destaca-se a inclusão de um relógio de tempo-real e o suporte a instruções para alocação e manipulação de objetos. Os conceitos propostos foram validados no âmbito de estudos de caso, sendo os resultados obtidos descritos na presente dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we propose a class of ACD-type models that accommodates overdispersion, intermittent dynamics, multiple regimes, and sign and size asymmetries in financial durations. In particular, our functional coefficient autoregressive conditional duration (FC-ACD) model relies on a smooth-transition autoregressive specification. The motivation lies on the fact that the latter yields a universal approximation if one lets the number of regimes grows without bound. After establishing that the sufficient conditions for strict stationarity do not exclude explosive regimes, we address model identifiability as well as the existence, consistency, and asymptotic normality of the quasi-maximum likelihood (QML) estimator for the FC-ACD model with a fixed number of regimes. In addition, we also discuss how to consistently estimate using a sieve approach a semiparametric variant of the FC-ACD model that takes the number of regimes to infinity. An empirical illustration indicates that our functional coefficient model is flexible enough to model IBM price durations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta por três ensaios sobre testes empíricos de curvas de Phillips, curvas IS e a interação entre as políticas fiscal e monetária. O primeiro ensaio ("Curvas de Phillips: um Teste Abrangente") testa curvas de Phillips usando uma especificação autoregressiva de defasagem distribuída (ADL) que abrange a curva de Phillips Aceleracionista (APC), a curva de Phillips Novo Keynesiana (NKPC), a curva de Phillips Híbrida (HPC) e a curva de Phillips de Informação Rígida (SIPC). Utilizamos dados dos Estados Unidos (1985Q1--2007Q4) e do Brasil (1996Q1--2012Q2), usando o hiato do produto e alternativamente o custo marginal real como medida de pressão inflacionária. A evidência empírica rejeita as restrições decorrentes da NKPC, da HPC e da SIPC, mas não rejeita aquelas da APC. O segundo ensaio ("Curvas IS: um Teste Abrangente") testa curvas IS usando uma especificação ADL que abrange a curva IS Keynesiana tradicional (KISC), a curva IS Novo Keynesiana (NKISC) e a curva IS Híbrida (HISC). Utilizamos dados dos Estados Unidos (1985Q1--2007Q4) e do Brasil (1996Q1--2012Q2). A evidência empírica rejeita as restrições decorrentes da NKISC e da HISC, mas não rejeita aquelas da KISC. O terceiro ensaio ("Os Efeitos da Política Fiscal e suas Interações com a Política Monetária") analisa os efeitos de choques na política fiscal sobre a dinâmica da economia e a interação entre as políticas fiscal e monetária usando modelos SVARs. Testamos a Teoria Fiscal do Nível de Preços para o Brasil analisando a resposta do passivo do setor público a choques no superávit primário. Para a identificação híbrida, encontramos que não é possível distinguir empiricamente entre os regimes Ricardiano (Dominância Monetária) e não-Ricardiano (Dominância Fiscal). Entretanto, utilizando a identificação de restrições de sinais, existe evidência que o governo seguiu um regime Ricardiano (Dominância Monetária) de janeiro de 2000 a junho de 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos trabalhos têm sido elaborados a respeito da curva de demanda agregada brasileira, a curva IS, desde a implementação do Plano Real e, principalmente, após a adoção do regime de câmbio flutuante. Este trabalho tem como objetivo estimar algumas especificações para a curva IS brasileira, para o período após a implementação do câmbio flutuante, do regime de metas de inflação e da Lei de Responsabilidade Fiscal, i.e. após o ano 2000. As especificações para as curvas estimadas tiveram como base o modelo novo-keynesiano, tendo sido incluídas algumas variáveis explicativas buscando captar o efeito na demanda agregada da maior intermediação financeira na potência da política monetária e o efeito do esforço fiscal feito pelo governo brasileiro. O trabalho utiliza o Método dos Momentos Generalizados (MMG) para estimar a curva IS em sua especificação foward-looking e o Método dos Mínimos Quadrados Ordinários (MQO) para estimar a curva IS em sua versão backward-looking. Os resultados mostram forte significância para o hiato do produto em todas as especificações. As especificações foward-looking mostram coeficientes significantes, porém com sinais opostos ao esperado para os juros e superávit primário. Nas regressões backward-looking o sinal dos coeficientes encontrados são os esperados, porém, mostram-se não significantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse paper introduz escolha simultânea do sistema político, sistema tributário e composição do gasto governamental em um modelo macroeconômico dinâmico de economia política com mercados incompletos onde o tamanho das arrecadações governamentais deve ser decidido a cada período. Além disso avalia o efeito de cada uma dessas instituições sobre a política fiscal de equilíbrio político. A inclusão dessas variáveis torna o modelo mais realista e possibilita o estudo de como a política econômica do governo é escolhida pela sociedade. A especificação mais geral do modelo calibrada para os EUA foi capaz de aproximar de maneira satisfatória a taxa efetiva e a relação tributária capital-trabalho observada nos dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper provides evidence on the relationship between rnonetary policy and the exchange rate in the aftermath of currency crises. It ana1yzes a large data set of currency crises in 80 countries in the period 1980 to 1998. The rnain question addressed is: can rnonetary policy significantly alter the probability of reversing the post-crisis undervaluation through nominal appreciation rather than higher int1ation? We find that tight rnonetary policy facilitates the reversal of currency undervaluation through nominal appreciation rather than inflation. When the econorny is also facing a banking crisis, depending on the specification, tight rnonetary policy rnay not have the same effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Employing a embodied technologic change model in which the time decision of scrapping old vintages of capital and adopt newer one is endogenous we show that the elasticity of substitutions among capital and labor plays a key role in determining the optimum life span of capital. In particular, for the CD case the life span of capital does not depend on the relative price of it. The estimation of the model's long-run investment function shows, for a Panel data set consisting of 125 economies for 25 years, that the price elasticity of investment is lower than one; we rejected the CD specification. Our calibration for the US suggests 0.4 for the technical elasticity of substitution. In order to get a theoretical consistent concept of aggregate capital we derive the relative price profile for a shadow second-hand market for capital. The shape of the model's theoretical price curve reproduces the empírical estimation of it. \lVe plug the calibrate version of the long-run solution of the model to a cross-section of economies data set to get the implied TFP, that is, the part of the productivity which is not explained by the model. We show that the mo dei represent a good improvement, comparing to the standard neoc!assical growth model with CD production function and disembodied technical change, in accounting the world diversity in productivity. In addition the model describes the fact that a very poor economy can experience fast growth based on capital accumulation until the point of becoming a middle income economy; from this point on it has to rely on TFP increase in order to keep growing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we study the dynamic hedging problem using three different utility specifications: stochastic differential utility, terminal wealth utility, and we propose a particular utility transformation connecting both previous approaches. In all cases, we assume Markovian prices. Stochastic differential utility, SDU, impacts the pure hedging demand ambiguously, but decreases the pure speculative demand, because risk aversion increases. We also show that consumption decision is, in some sense, independent of hedging decision. With terminal wealth utility, we derive a general and compact hedging formula, which nests as special all cases studied in Duffie and Jackson (1990). We then show how to obtain their formulas. With the third approach we find a compact formula for hedging, which makes the second-type utility framework a particular case, and show that the pure hedging demand is not impacted by this specification. In addition, with CRRA- and CARA-type utilities, the risk aversion increases and, consequently the pure speculative demand decreases. If futures price are martingales, then the transformation plays no role in determining the hedging allocation. We also derive the relevant Bellman equation for each case, using semigroup techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study an intertemporal asset pricing model in which a representative consumer maximizes expected utility derived from both the ratio of his consumption to some reference level and this level itself. If the reference consumption level is assumed to be determined by past consumption levels, the model generalizes the usual habit formation specifications. When the reference level growth rate is made dependent on the market portfolio return and on past consumption growth, the model mixes a consumption CAPM with habit formation together with the CAPM. It therefore provides, in an expected utility framework, a generalization of the non-expected recursive utility model of Epstein and Zin (1989). When we estimate this specification with aggregate per capita consumption, we obtain economically plausible values of the preference parameters, in contrast with the habit formation or the Epstein-Zin cases taken separately. All tests performed with various preference specifications confirm that the reference level enters significantly in the pricing kernel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.