25 resultados para Estimadores entrópicos
Resumo:
Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.
Resumo:
O objetivo deste trabalho passa por entender o impacto dos fatores não observáveis na escolha do sistema de aquecimento de água na intensidade do consumo de eletricidade domiciliar. Para isto será aplicado um modelo discreto-contínuo para entender o efeito da escolha discreta do tipo de aquecimento de água domiciliar sobre o consumo de energia elétrica do mesmo domicílio, escolha contínua. Primeiramente foi usado um modelo LOGIT e por meio deste foram entendidos os fatores que influenciam a escolha discreta do consumidor. Com os resultados encontrados na escolha discreta, temos em um segundo momento que constatar se esta escolha é significante para a intensidade do consumo de energia elétrica. Os resultados obtidos usando o método de Hausmann demonstraram que ignorar este fator (escolha discreta) pode levar a estimadores viesados para a parte contínua do modelo, ou seja, a escolha discreta é significante e ajuda a explicar o consumo de energia elétrica domiciliar. Os resultados mostraram que temos diferenças de até 10% no estimador obtido quando ignoramos este fator. É importante notar que este tipo de falha no cálculo, pode trazer problemas na decisão e na quantidade de investimento de um país. Além disso, os resultados reforçaram e ratificaram o trabalho desenvolvido por Dubbin e McFadden (1984) que foram usados como base para o estudo.
Resumo:
As expectativas de inflação medidas pelos agentes passaram a ser fundamentais após a implantação do regime de metas inflacionárias pelo Banco Central. Este trabalho procura verificar o poder preditivo da inflação estimada pelos agentes que contribuem para as expectativas do Relatório Focus e as inflações medidas pelo diferencial entre títulos pré-fixados e cupons de títulos indexados ao IPCA, as chamadas inflações implícitas ou compensatórias. Procura-se verificar qual das variáveis apresenta melhor capacidade de previsão da inflação realizada através da constituição de modelos de regressão linear. Também se busca mostrar a acuidade dessas variáveis em intervalos de tempos futuros de 3 (três) a 30 (trinta) meses. O trabalho revela que as inflações implícitas são melhores estimadores que as inflações medidas pelo Focus para períodos mais longos acima de 9 (nove) meses, porém o último tem maior poder preditivo para horizontes curtos de até 6 (seis) meses.
Resumo:
Este artigo propõe estimar o impacto dos programas de transferência condicionada de renda sobre proficiência dos alunos no Brasil. A literatura de transferência condicionada de renda já mostrou bastantes evidências do impacto desse tipo de programa social sobre acesso e matrícula escolar. Porém, muito pouco se sabe sobre o efeito dessas políticas sobre medidas finais de capital humano como proficiência. Além disso, esse estudo também se insere na literatura de avaliação de impacto de políticas públicas sobre proficiência. Nós diagnosticamos em nosso trabalho importantes relações que envolvem a seleção desse tipo de programa e as características descritivas básicas e distintas do grupo de recipientes. Os recipientes do programa geralmente possuem características socioeconômicas menos favoráveis e notas de proficiência mais baixas, mesmo quando controlado por características socioeconômicas observáveis. Para estimar o efeito causal, fazemos uso de uma oportunidade única de construção de um painel de alunos. Exploramos modelos de estimadores de efeito fixo, diferença em diferença e extensões, como diferenças triplas e diferenças em diferenças combinada com reponderação baseada no propensity score. Os resultados, em geral, apontam que não há impacto desse tipo programa em notas de proficiência de matemática e português.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. Em geral, a atribuição do tratamento aos potenciais participantes não é aleatória, o que pode causar viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, existem na literatura estimadores semiparamétricos do efeito médio do tratamento que são consistentes e capazes de atingir, assintoticamente, o limite de e ciência semiparamétrico. Entretanto, nas amostras freqüentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado.
Resumo:
Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
A tese é constituída por três artigos: “Regulação Ótima de Pescarias com Imperfeito Enforcement dos Direitos de Propriedade”, “Estimação de um Modelo Generalizado de Pesca” e “Fatores Condicionantes da Reincidência Criminal no Chile”. No Capitulo 1, num contexto de enforcement imperfeito e custoso dos direitos de propriedade, é desenvolvido um modelo bioeconômico para determinar a captura ótima na exploração de recursos hidrobiológicos. Os resultados mostram que: (i) o stock do recurso em estado estacionário é menor quando o enforcement é imperfeito e custoso que quando é perfeito e sem custo, (ii) se o stock do recurso em estado estacionário com enforcement perfeito e sem custo é menor ao de máximo rendimento sustentável, então a quota de captura ótima com enforcement imperfeito e custoso é menor à respetiva quota quando o enforcement é perfeito e sem custo, e (iii) o stock do recurso em estado estacionário com enforcement imperfeito e custoso é maior ao stock do recurso quando a pescaria é de livre acesso. Contudo a gestão ótima dos recursos pesqueiros requer o conhecimento dos seus parâmetros bioeconômicos, porém implementar estudos para obter informação do stock do recurso é muito custoso e está sujeito a erros de mensuração. Assim, no Capitulo 2 são estimados os parâmetros bioeconômicos para a captura de anchoveta peruana. A metodologia baseia-se em Zhang e Smith (2011). Os parâmetros bioeconômicos são obtidos a traves de uma estimação econométrica em dois estágios utilizando dados microeconômicos associadas às embarcações que contam com permissão para capturar anchoveta. O método do bootstrap é utilizado para corrigir os erros padrão das estimativas obtidas pela metodologia em dois estágios. Os parâmetros estimados são utilizados para o stock ótimo e a captura ótima de anchoveta em estado estacionário. Assim mesmo, comparar-se o stock ótimo com o stock observado conclui-se que a pescaria da anchoveta peruana tem estado continuamente sujeita â sobre-exploração. Por último o Capitulo 3 é um esforço por estudar os fatores de reincidência criminal no Chile, uma área de pesquisa que tem sido escassamente explorada em América Latina, embora da sua importância na agenda pública e dada a crença da sociedade chilena que a criminalidade é explicada fundamentalmente por criminais reincidentes. A aproximação escolhida no presente estudo analisa a reincidência a partir da imputação. Para estudar os determinantes a reincidência, utiliza-se um modelo econométrico binário, o modelo Probit, que permite analisar como a idade, sexo, e o tipo de delitos cometidos, afetam a probabilidade de reincidência. Observa-se que na maior dos casos os estimadores apresentam o sinal esperado.