180 resultados para Estimadores
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.
Resumo:
Este trabalho tem dois objetivos. Primeiro, identificar fatos estilizados para as mudanças estruturais ocorridas na Produtividade Total dos Fatores (PTF) em uma amostra de 81 países entre os anos de 1950(60) 2000. Segundo, identificar, quando possível, episódios da história política econômica desses países que possivelmente estejam associados com quebra em questão. Assim, determinamos os números e as datas das quebras estruturais na série temporal da PTF para os países utilizando estimadores testes de mudanças estruturais múltiplas propostos por Bai Perron (1998). Concluímos que ocorrem mudanças estruturais na maioria dos países essas são devidas principalmente fatores internos. Mudanças nos regimes governamentais, como golpes de estado, independência ou uma nova constituição no país são os principais responsáveis por mudanças estruturais na série da PTF respondem por cerca de 40% das mudanças estruturais estimadas. Além disso, choques externos como choque do petróleo choque de juros internacional podem explicar outros 20% das mudanças estruturais na PTF.
Resumo:
Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.
Resumo:
Em 2000, o governo federal xou uma lei que permitia as unidades federativas xarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e do Rio Grande do Sul adotaram essa lei, a partir de 2001 representando uma oportunidade privile- giada de avaliação dos impactos do salário mínimo. A nova lei ao reajustar de maneira diferenciada entre estados e grupos pro ssionais oferece uma fonte de variabilidade po- tencialmente exógena para estimação dos seus impactos . Outra vantagem é isolar os efeitos de mudanças de um preço mínimo sobre a demanda de trabalho dos impactos scais exercidos pelo salário mínimo no contexto brasileiro. Inicialmente, testamos a efetividade da nova lei utilizando a Pesquisa Nacional de Amostras por Domicílio (PNAD) usamos duas metodologias complementares, a saber: i) logits (binário e multinomial) aplicados a PNADS de vários anos tomadas conjunta- mente a m de calcular a probabilidade de acumulação de massa abaixo, igual e acima dos pisos estaduais e do SM; ii) regressões de média e quantílicas para diferenças de salários antes e depois da aplicação da legislação estadual comparando um grupo de tratamento com um grupo de controle. Posteriormente, lançamos mão do aspecto lon- gitudinal da Pesquisa Mensal de Emprego (PME) para aplicarmos em um contexto dinâmico, regressões quantílicas. Os resultados demonstram que a lei exerce algum im- pacto sobre os quantis de rendimentos situados em torno dos valores assumidos pelos pisos salariais mas ainda existe um nível alto de descumprimento da legislação. Dada esta evidência, buscamos adicionalmente avaliar os impactos sobre o nível de emprego da nova lei utilizando a adoção dos pisos estaduais de salário uminense e gaúcho como experimentos naturais. Aplicamos estimadores de diferença em diferença aos dados de painel rotativo derivados da PME. Obtivemos um impacto nulo no emprego, que con- tradiz o modelo usual de oferta e demanda de mercado de trabalho. Este fato pode ser lido como uma evidência adicional da pouca efetividade da lei. Em uma análise complementar, averiguamos a tentativa de implantação pelo estado da Bahia de um "salário mínimo estadual"de 180 reais em abril de 2000, opondo-se ao aumento de 151 reais xados pela União. Mas os resultados se mostraram contrários à lei dos pisos estaduais, ou seja, indicaram pouca efetividade também desta lei xada na Bahia
Resumo:
Este trabalho tem por objetivo identificar os coeficientes sazonais de algumas variáveis econômicas (produção industrial, exportações e importações), isentos das mudanças estruturais registradas na economia. O estudo verifica se os planos de estabilização implementados pelo governo nos últimos quinze anos afetaram o padrão sazonal daquelas séries. Para tanto aplica-se o X-12-ARIMA, o novo método de dessazonalização de séries desenvolvido pelo U.S. Bureau of the Census. O uso desse método torna-se necessário, porque os demais métodos conhecidos impedem testar nossa hipótese, ao não permitirem o emprego de intervenções, não obtendo assim os melhores estimadores para os coeficientes sazonais. O estudo cobre o período que vai de 1980 a 1997 e os resultados confirmam a nossa hipótese de mudança no padrão sazonal no período. As nossas variáveis econômicas foram - de um ou de outro modo - atingidas pelos planos de estabilização implementados nos últimos quinze anos.
Resumo:
A pesquisa testa a existência, no mercado futuro brasileiro, do fenômeno que Keynes denominou de normal backwardation, isto é, a hipótese de que os preços futuros não são estimadores não viesados (unbiased estimators) do preço à vista esperado para o futuro. Quatro contratos futuros negociados na BM&F Bolsa de Mercadorias e Futuros foram estudados, a saber, futuro de Ibovespa, futuro de dólar comercial, futuro de boi gordo e futuro de café arábica, cobrindo o período de julho de 1994 a setembro de 1997. Cada contrato futuro citado foi submetido a quatro testes, sugeridos pelas implicações da hipótese de Keynes. Nossos resultados indicam que normal backwardation não é normal no mercado futuro brasileiro, repetindo as conclusões de vários estudos internacionais.
Resumo:
Identifica-se que a aplicação de técnicas estatísticas e financeiras nos modelos para a tomada de decisão dos investimentos de marketing se apresenta muito abaixo de seu potencial. O modelo do Valor do Cliente e o cálculo do Valor Vitalício do Cliente vêm ganhando destaque como referência bibliográfica no tema, provocando discussão nos meios acadêmicos e empresariais em torno de como projetar o fluxo de caixa futuro descontado, gerado por um cliente durante o tempo que manterá relacionamento comercial com a empresa. Apesar de na literatura acadêmica existirem diversos artigos descrevendo o cálculo do Valor do Cliente, poucos sugerem técnicas estatísticas e estimadores que poderiam ser úteis para este fim. O modelo de cálculo usado como referência neste estudo propõe uma combinação original envolvendo as técnicas de análise de sobrevivência com modelos lineares hierárquicos. Nesta tese será demonstrado como os Modelos Lineares Hierárquicos podem ser utilizados como uma importante ferramenta para entender, explicar e prever a margem de contribuição gerada por um cliente. Essa técnica recentemente passou a ser utilizada como ferramenta nas questões relacionadas à Administração de Empresas e ainda não foi aplicada no cálculo do Valor Vitalício do Cliente. Entre outras vantagens, a técnica permite levar em consideração, no cálculo, tanto as características individuais de cada cliente, quanto à tendência da margem gerada por ele ao longo do tempo. A Análise de Sobrevivência foi utilizada para modelar a probabilidade de um cliente manter o relacionamento comercial com a Administradora. Na tentativa de contribuir para o tema, este estudo desenvolveu uma aplicação a partir da modelagem desenvolvida por Cox (1972). Essa metodologia também permite estimar o comportamento do cliente levando em conta suas características individuais. Como ilustração, o modelo será aplicado em uma das cinco principais Administradoras de Cartões de Crédito do Brasil. Vale observar que o mesmo modelo poderia ser aplicado em outras indústrias com características semelhantes, como telefonia, provedores de internet, bancos e financeiras. Dada a natureza exploratória do estudo, suas conclusões se restringem à análise da amostra; entretanto, elas podem se constituir em um ponto de partida para outras pesquisas mais aprofundadas.
Resumo:
Esta dissertação avalia o impacto da educação sobre a renda dos jovens no Brasil, seguindo a tradição de equações de determinação de salários. O trabalho difere dos trabalhos na área realizados no Brasil em quatro aspectos. Em primeiro lugar, Em primeiro lugar, o universo de análise está focado na população jovem brasileira, a qual ingressou recentemente no mercado de trabalho e nele permanecerá por muitos anos, o que traz informações sobre as características desse mercado para os próximos 25 a 35 anos. Além disso, ele difere porque introduz a qualidade do ensino como determinante dos rendimentos. Depois, porque adota um protocolo de imputação da qualidade da educação dos jovens para os quais não se tem informação sobre a qualidade da educação, de sorte a evitar viés de seleção. E, por fim, a dissertação contrasta com os estudos correntes no tema porque explora diferentes métodos de estimação dos retornos da educação e da qualidade do ensino. Além do método tradicional dos estimadores de OLS, este trabalho considera o uso de fronteiras estocásticas de salários. As estimativas foram feitas a partir de um modelo cross-section em dois estágios. No primeiro estágio, estimou-se a equação de determinação da probabilidade de um jovem entre 11 e 21 anos de idade estudar na rede pública ou na rede privada, escolas com diferenças qualitativas grandes no país. No segundo estágio, imputou-se um indicador de qualidade da educação dos jovens num modelo econométrico de determinação da renda dos jovens entre 16 e 25 anos de idade. O procedimento com imputação foi necessário simplesmente pelo fato de nas estatísticas brasileiras não haver informações sobre a qualidade do ensino adquirido pelos indivíduos. A análise permitiu mostrar que a qualidade da educação interfere de forma significativa na renda dos jovens, com grande impacto sobre os índices de desigualdade da distribuição de renda nessa faixa de idade. Também permitiu mostrar que existe um trade-off entre o retorno da e
Resumo:
Essa dissertação apresenta estimativas para a elasticidade-preço da demanda por aço no Brasil, a partir de dados agregados e desagregados da indústria siderúrgica. Os resultados das estimativas a partir do painel com dados desagregados sugerem que existe um viés de agregação nas estimativas já realizadas a partir de dados agregados, e esse viés subestimaria a elasticidade-preço do setor siderúrgico. Com a finalidade de comparar as relações entre as elasticidades-preços de curto e longo prazo foram estimados painéis heterogêneos dinâmicos, através de estimadores Mean Group (MG) e Pooled Mean Group (PMG). É importante ressaltar que, de acordo com o conhecimento do autor, este é o primeiro estudo a usar estimação em painel para estimação da elasticidade-preço da demanda por produtos siderúrgicos no Brasil, dessa forma, controlando a estimativa pela heterogeneidade entre os tipos de aço.
Resumo:
O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.
Resumo:
Este trabalho tem por objetivo analisar algumas das características principais das estruturas de securitização no mercado brasileiro. Utilizando como principal referência o artigo de Gorton e Souleles (2005) e, através da análise das características das empresas que utilizam securitização no Brasil, testamos se empresas com maior risco de crédito tendem a securitizar mais. Avaliando as características que fazem com que tais estruturas sejam viáveis, testamos também se há evidências de um contrato implícito entre as empresas cedentes e os investidores. Na base de dados utilizada para os testes foram consideradas 59 emissões de FIDCs registradas de janeiro de 2005 a julho de 2010 e uma base com dados contábeis de 86 bancos em 8 semestres. Devido à estrutura dos dados, foram utilizados métodos para regressão com dados em painel utilizando estimadores para efeitos fixos e aleatórios. Nos testes empíricos foram encontradas evidências de que o rating das empresas cedentes influencia o spread cobrado nos FIDCs, o que pode ser entendido como uma forma de evidenciação da existência de um contrato implícito. Também evidenciamos, embora de forma menos contundente, que empresas com piores ratings securitizam mais.Tais resultados mostram-se alinhados com os encontrados no artigo de Gorton e Souleles (2005) .
Resumo:
Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.
Resumo:
O objetivo deste trabalho passa por entender o impacto dos fatores não observáveis na escolha do sistema de aquecimento de água na intensidade do consumo de eletricidade domiciliar. Para isto será aplicado um modelo discreto-contínuo para entender o efeito da escolha discreta do tipo de aquecimento de água domiciliar sobre o consumo de energia elétrica do mesmo domicílio, escolha contínua. Primeiramente foi usado um modelo LOGIT e por meio deste foram entendidos os fatores que influenciam a escolha discreta do consumidor. Com os resultados encontrados na escolha discreta, temos em um segundo momento que constatar se esta escolha é significante para a intensidade do consumo de energia elétrica. Os resultados obtidos usando o método de Hausmann demonstraram que ignorar este fator (escolha discreta) pode levar a estimadores viesados para a parte contínua do modelo, ou seja, a escolha discreta é significante e ajuda a explicar o consumo de energia elétrica domiciliar. Os resultados mostraram que temos diferenças de até 10% no estimador obtido quando ignoramos este fator. É importante notar que este tipo de falha no cálculo, pode trazer problemas na decisão e na quantidade de investimento de um país. Além disso, os resultados reforçaram e ratificaram o trabalho desenvolvido por Dubbin e McFadden (1984) que foram usados como base para o estudo.
Resumo:
As expectativas de inflação medidas pelos agentes passaram a ser fundamentais após a implantação do regime de metas inflacionárias pelo Banco Central. Este trabalho procura verificar o poder preditivo da inflação estimada pelos agentes que contribuem para as expectativas do Relatório Focus e as inflações medidas pelo diferencial entre títulos pré-fixados e cupons de títulos indexados ao IPCA, as chamadas inflações implícitas ou compensatórias. Procura-se verificar qual das variáveis apresenta melhor capacidade de previsão da inflação realizada através da constituição de modelos de regressão linear. Também se busca mostrar a acuidade dessas variáveis em intervalos de tempos futuros de 3 (três) a 30 (trinta) meses. O trabalho revela que as inflações implícitas são melhores estimadores que as inflações medidas pelo Focus para períodos mais longos acima de 9 (nove) meses, porém o último tem maior poder preditivo para horizontes curtos de até 6 (seis) meses.