14 resultados para Método dos momentos (Estatística)

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A inclusão de momentos superiores no apreçamento de ativos do modelo CAPM vem sendo bastante discutido nas últimas décadas. Esse trabalho realiza um teste empírico para o modelo CAPM estendido para os 3o e 4o momentos, no qual as assimetrias e curtoses dos ativos também são apreçadas. O teste foi realizado utilizando o Método Generalizado dos Momentos (MGM), em que todas as condições de momento derivam do modelo teórico. Os dados utilizados foram os retornos diários das ações mais negociadas na Bovespa entre 2004 e 2006.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação se propõe ao estudo de inferência usando estimação por método generalizado dos momentos (GMM) baseado no uso de instrumentos. A motivação para o estudo está no fato de que sob identificação fraca dos parâmetros, a inferência tradicional pode levar a resultados enganosos. Dessa forma, é feita uma revisão dos mais usuais testes para superar tal problema e uma apresentação dos arcabouços propostos por Moreira (2002) e Moreira & Moreira (2013), e Kleibergen (2005). Com isso, o trabalho concilia as estatísticas utilizadas por eles para realizar inferência e reescreve o teste score proposto em Kleibergen (2005) utilizando as estatísticas de Moreira & Moreira (2013), e é obtido usando a teoria assintótica em Newey & McFadden (1984) a estatística do teste score ótimo. Além disso, mostra-se a equivalência entre a abordagem por GMM e a que usa sistema de equações e verossimilhança para abordar o problema de identificação fraca.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Um rating de crédito de baixo (ou alto) risco possibilita uma redução (ou elevação) do spread pago pelo emissor na ocasião da emissão de títulos de crédito, bem como na captação de financiamentos e empréstimos bancários. Assim, o rating apresenta-se como um aspecto relevante nas decisões de estrutura de capitais de uma empresa, sobretudo pela possibilidade de influenciar nos seus níveis de dívidas. Todavia, apesar da importância atribuída pelos agentes de mercado e a existência de indícios empíricos do efeito do rating sobre a estrutura de capitais de uma empresa, os poucos estudos já realizados acerca das associações entre as tendências de reclassificações dos ratings de crédito e as decisões de estrutura de capitais de uma firma não têm abordado os mercados latino-americanos. Não são comuns nos mercados da América Latina estudos analisando se as empresas avaliam internamente a iminência de uma reclassificação do seu rating e, a partir disso, alteram a sua composição de estrutura de capitais de modo a evitar que ocorra um downgrade, ou mesmo para estimular a ocorrência de um upgrade, em sua classificação de risco de crédito. Nesse sentido, o objetivo desta pesquisa é analisar o impacto das tendências de reclassificações do rating de crédito sobre as decisões de estrutura de capitais de empresas listadas da América Latina. Para verificar a existência dessa associação foram empregados dados pertencentes a todas as empresas não-financeiras listadas da América Latina, possuidoras de ratings emitidos pelas três principais agências de ratings internacionais (i.e. Stardand & Poor´s, Moody´s e Fitch) em janeiro de 2010. Desse modo, fizeram parte da pesquisa todas as empresas listadas em seis diferentes países latino-americanos, no período 2001-2010. Os principais resultados empíricos obtidos sugerem que: (i) as reclassificações dos ratings de crédito não possuem conteúdo informacional para as decisões de estrutura de capitais das empresas listadas da América Latina, ou seja, não foi observada associação entre as tendências de reclassificações do ratings de crédito e as decisões sobre composição das estruturas de capitais das empresas listadas da América Latina; (ii) entre as empresas consideradas na pesquisa, aquelas que se encontravam em níveis piores de riscos e na iminência de reclassificações do rating de crédito, tenderam a utilizar mais dívidas do que as outras empresas analisadas na pesquisa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho investigamos as propriedades em pequena amostra e a robustez das estimativas dos parâmetros de modelos DSGE. Tomamos o modelo de Smets and Wouters (2007) como base e avaliamos a performance de dois procedimentos de estimação: Método dos Momentos Simulados (MMS) e Máxima Verossimilhança (MV). Examinamos a distribuição empírica das estimativas dos parâmetros e sua implicação para as análises de impulso-resposta e decomposição de variância nos casos de especificação correta e má especificação. Nossos resultados apontam para um desempenho ruim de MMS e alguns padrões de viés nas análises de impulso-resposta e decomposição de variância com estimativas de MV nos casos de má especificação considerados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Muitos trabalhos têm sido elaborados a respeito da curva de demanda agregada brasileira, a curva IS, desde a implementação do Plano Real e, principalmente, após a adoção do regime de câmbio flutuante. Este trabalho tem como objetivo estimar algumas especificações para a curva IS brasileira, para o período após a implementação do câmbio flutuante, do regime de metas de inflação e da Lei de Responsabilidade Fiscal, i.e. após o ano 2000. As especificações para as curvas estimadas tiveram como base o modelo novo-keynesiano, tendo sido incluídas algumas variáveis explicativas buscando captar o efeito na demanda agregada da maior intermediação financeira na potência da política monetária e o efeito do esforço fiscal feito pelo governo brasileiro. O trabalho utiliza o Método dos Momentos Generalizados (MMG) para estimar a curva IS em sua especificação foward-looking e o Método dos Mínimos Quadrados Ordinários (MQO) para estimar a curva IS em sua versão backward-looking. Os resultados mostram forte significância para o hiato do produto em todas as especificações. As especificações foward-looking mostram coeficientes significantes, porém com sinais opostos ao esperado para os juros e superávit primário. Nas regressões backward-looking o sinal dos coeficientes encontrados são os esperados, porém, mostram-se não significantes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente texto desenvolve, com fins didáticos, as propriedades básicas do Método Generalizado dos Momentos (MGM). Faz parte de obra (livro) em elaboração.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente texto desenvolve, com fins didáticos, as aplicações do Método Generalizado dos Momentos (MGM) ao procedimento de variáveis instrumentais, em modelos lineares e não-lineares. Faz parte de obra (livro) em elaboração

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo teve como objetivo conhecer as expectativas dos servidores do Instituto Brasileiro de Geografia e Estatística (IBGE) em relação às políticas de recursos humanos, dada a elevação da faixa etária da população dos servidores desta instituição. Tomou como ponto de partida os resultados das pesquisas do IBGE - Censo Demográfico e a Pesquisa Nacional de Domicilio - que vêm demonstrando ao longo dos anos a tendência de aumento da esperança de vida da população brasileira. Tendência essa que se reflete na elevação da faixa etária média dos trabalhadores dentro dessa instituição. E ainda, considerou a evolução do papel da Área de Recursos Humanos ao longo dos anos e a sua importância dentro da gestão pública brasileira, dado que sempre teve um lugar de destaque nas diversas reformas administrativas implementadas. Assim, baseado em três vetores: elevação da expectativa de vida do brasileiro, administração de recursos humanos e administração pública brasileira, identificou como o IBGE e seus servidores têm vivenciado a realidade de um quadro de trabalhadores cada vez mais velhos. As entrevistas realizadas com os servidores, analisadas a partir do método da Análise de Conteúdo, revelaram que a questão do envelhecimento, apesar de ter reflexos fortes dentro da instituição, ainda não é claramente destacada dentro das políticas de recursos humanos, o que faz com que os servidores não consigam perceber políticas de RH focadas no envelhecimento do quadro, mostrando-se desmotivados e decepcionados quanto ao tema e ao mesmo tempo ansiosos por mudanças claras e radicais no que tange a gestão das políticas de RH.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese é composta de três artigos sobre finanças. O primeiro tem o título "Nonparametric Option Pricing with Generalized Entropic Estimators " e estuda um método de apreçamento de derivativos em mercados incompletos. Este método está relacionado com membros da família de funções de Cressie-Read em que cada membro fornece uma medida neutra ao risco. Vários testes são feitos. Os resultados destes testes sugerem um modo de definir um intervalo robusto para preços de opções. Os outros dois artigos são sobre anúncios agendados em diferentes situações. O segundo se chama "Watching the News: Optimal Stopping Time and Scheduled Announcements" e estuda problemas de tempo de parada ótimo na presença de saltos numa data fixa em modelos de difusão com salto. Fornece resultados sobre a otimalidade do tempo de parada um pouco antes do anúncio. O artigo aplica os resultados ao tempo de exercício de Opções Americanas e ao tempo ótimo de venda de um ativo. Finalmente o terceiro artigo estuda um problema de carteira ótima na presença de custo fixo quando os preços podem saltar numa data fixa. Seu título é "Dynamic Portfolio Selection with Transactions Costs and Scheduled Announcement" e o resultado mais interessante é que o comportamento do investidor é consistente com estudos empíricos sobre volume de transações em momentos próximos de anúncios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de identificar oportunidades de arbitragem estatística no mercado de opções brasileiro, este trabalho utiliza o modelo de volatilidade incerta e o conceito de Hedging Estático, no apreçamento de um portfólio composto por diversas opções. São também incluídos os custos de transação relacionados a estruturação de um portfólio livre de risco, obtendo assim um modelo que pode ser facilmente implementado através da utilização do método de diferenças finitas explicito. Na aplicação do modelo ao mercado de opções sobre a ação preferencial da Petrobrás (PETR4), foi estabelecido um critério para estabelecer a frequência do ajuste do delta hedge do portfólio livre de risco de maneira a não incorrer em custos de transação elevados. Foi escolhido o período entre 19/05/08 e 20/01/14 para analisar o desempenho do modelo, selecionando-se em cada data de cálculo um conjunto de 11 opções de diferentes strikes e mesmo vencimento para compor o portfólio. O modelo apresentou um bom desempenho quando desconsiderados os custos de transação na apuração do resultado da estratégia de arbitragem, obtendo na maior parte dos casos resultados positivos. No entanto, ao incorporar os custos de transação, o desempenho obtido pelo modelo foi ruim, uma vez que na maior parte dos casos o resultado apresentado foi negativo.