22 resultados para Simulated method of moments

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the period 1976-1992. We also test a conditional APT modeI by using the difference between the 3-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. The conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from individual securities exchanged on the Brazilian markets. The inclusion of this second factor proves to be important for the appropriate pricing of the portfolios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data available on continuos-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the use of Martingale Estimating Functions and the application of Generalized Method of Moments (GMM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data available on continuous-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the employment of Martingale Estimating Functions, and the application of Generalized Method of Moments (GMM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We show how to include in the CAPM moments of any order, extending the mean-variance or mean-variance-skewness versions available until now. Then, we present a simple way to modify the formulae, in order to avoid the appearance of utility parameters. The results can be easily applied to practical portfolio design, with econometric inference and testing based on generalised method of moments procedures. An empirical application to the Brazilian stock market is discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We show that Judd (1982)’s method can be applied to any finite system, contrary to what he claimed in 1987. An example shows how to employ the technic to study monetary models in presence of capital accumulation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente texto desenvolve, com fins didáticos, as propriedades básicas do Método Generalizado dos Momentos (MGM). Faz parte de obra (livro) em elaboração.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesse trabalho estima-se, usando o método generalizado dos momentos e dados brasileiros, os parâmetros estruturais do modelo CCAPM (consumption capital asset pricing model) a partir de três classes de funções utilidade distintas: função utilidade potência (CRRA), utilidade com hábito externo, e aversão ao desapontamento (Kreps-Porteus). Estes parâmetros estruturais estão associados à aversão ao risco, à elasticidade de substituição intertemporal no consumo e à taxa de desconto intertemporal da utilidade futura. Os resultados aqui obtidos são analisados e comparados com resultados anteriores para dados brasileiros e americanos. Adicionalmente, testa-se econometricamente todos os modelos estruturais estimados a partir do teste de restrições de sobre-identificação, para investigar, da forma mais abrangente possível, se há ou não equity premium puzzle para o Brasil. Os resultados surpreendem, dado que, em raríssimas ocasiões, se rejeita as restrições implícitas nesses modelos. Logo, conclui-se que não há equity premium puzzle para o Brasil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente texto desenvolve, com fins didáticos, as aplicações do Método Generalizado dos Momentos (MGM) ao procedimento de variáveis instrumentais, em modelos lineares e não-lineares. Faz parte de obra (livro) em elaboração

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A inclusão de momentos superiores no apreçamento de ativos do modelo CAPM vem sendo bastante discutido nas últimas décadas. Esse trabalho realiza um teste empírico para o modelo CAPM estendido para os 3o e 4o momentos, no qual as assimetrias e curtoses dos ativos também são apreçadas. O teste foi realizado utilizando o Método Generalizado dos Momentos (MGM), em que todas as condições de momento derivam do modelo teórico. Os dados utilizados foram os retornos diários das ações mais negociadas na Bovespa entre 2004 e 2006.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho trata do impacto da dívida pública sobre o crescimento econômico utilizando conjunto de dados de painel para o período de 1990 a 2000 nos países da América Latina e Caribe, e considerando técnicas de método GMM para painéis dinâmicos. De acordo com os resultados de nossas estimações, a dívida pública dos países influencia negativamente o crescimento econômico, enquanto o desenvolvimento do mercado de títulos públicos apresenta efeito contrário.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.