931 resultados para estimação
Resumo:
This thesis has three chapters. Chapter 1 explores literature about exchange rate pass-through, approaching both empirical and theoretical issues. In Chapter 2, we formulate an estate space model for the estimation of the exchange rate pass-through of the Brazilian Real against the US Dollar, using monthly data from August 1999 to August 2008. The state space approach allows us to verify some empirical aspects presented by economic literature, such as coe cients inconstancy. The estimates o ffer evidence that the pass-through had variation over the observed sample. The state space approach is also used to test whether some of the "determinants" of pass-through are related to the exchange rate pass-through variations observed. According to our estimates, the variance of the exchange rate pass-through, monetary policy and trade ow have infuence on the exchange rate pass-through. The third and last chapter proposes the construction of a coincident and leading indicator of economic activity in the United States of America. These indicators are built using a probit state space model to incorporate the deliberations of the NBER Dating Cycles Committee regarding the state of the economy in the construction of the indexes. The estimates o ffer evidence that the NBER Committee weighs the coincident series (employees in nonagricultural payrolls, industrial production, personal income less transferences and sales) di fferently way over time and between recessions. We also had evidence that the number of employees in nonagricultural payrolls is the most important coincident series used by the NBER to de fine the periods of recession in the United States.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
Neste trabalho apresentamos evidência sobre os efeitos da alfabetização de adultos na renda e probabilidade de empregos dos indivíduos. Os dados longitudinais disponibilizados pela Pesquisa Mensal de Emprego (PME) permitem controlar os efeitos fixos não-observáveis dos indivíduos gerando uma estimação mais robusta e consistente dos efeitos analisados. De modo geral, os resultados deste trabalho indicam retorno de 9,3% em rendimentos para indivíduos que se alfabetizam. Mostramos evidência que sugerem que esse efeito no salário se deve a acréscimos de produtividade e não por um aumento na formalização dos trabalhadores alfabetizados. Ademais, observamos que o efeito na renda é mais proeminente em certos grupos de indivíduos: mulheres, residentes de Salvador e pessoas entre 45 e 60 anos
Resumo:
Os objetivos da presente tese visam determinar os custos médico-hospitalares e aqueles referentes à perda de uma vida ou valor da vida estatística (VVE) para os acidentados no trânsito. Para o primeiro objetivo, a pesquisa ex-post facto foi realizada no arquivo médico do Hospital Cristo Redentor (SAME-HCR), situado na cidade de Porto Alegre e especializado no atendimento a pacientes traumatizados. A análise dos prontuários para verificar a gravidade das lesões, assim como o custo resultante de cada acidentado, envolveu a identificação daqueles tratados através de convênios e particulares, bem como através do Sistema Unificado de Saúde (SUS). Foram consultados 186 prontuários e gerados dois modelos, sendo um linear múltiplo e outro multiplicativo. O modelo multiplicativo resultou mais robusto. Os custos médios de lesões severas estão em torno de US$ 4.000 e US$ 7.000, respectivamente, para pacientes atendidos através do SUS ou por convênio ou particular. No segundo objetivo, foram utilizadas duas metodologias para determinação do VVE. A primeira metodologia utilizou as técnicas de Preferência Declarada (PD) através da escolha de alternativas com multi-atributos. Na segunda, foi empregada a análise contingente que utiliza um único atributo, denominada referendum (AR). A pesquisa foi realizada de forma presencial junto a 419 motoristas amadores dos quais 41% apresentaram comportamento lexicográfico. Com a metodologia PD, a faixa de variação do VVE em um acidente com morte foi de US$ 119 a 333 mil, aproximadamente, considerando os modelos válidos O valor da hora, utilizado para controle do experimento, ficou contido na faixa entre US$ 1,33 a 2,56. A metodologia AR, utilizada na forma exploratória, está baseada na função utilidade que possibilita disposição de pagar individual negativa. Como decorrência, o valor médio e mediano da disposição de pagar dos indivíduos (DDP) resultou positivo ou negativo dependendo dos coeficientes obtidos na estimação. Esse fato determinou o emprego de expressões para o cálculo da média e mediana, considerando também o truncamento da função logística somente para valores positivos. Os valores obtidos para o VVE apresentaram grande flutuação.
Resumo:
Essa dissertação apresenta estimativas para a elasticidade-preço da demanda por aço no Brasil, a partir de dados agregados e desagregados da indústria siderúrgica. Os resultados das estimativas a partir do painel com dados desagregados sugerem que existe um viés de agregação nas estimativas já realizadas a partir de dados agregados, e esse viés subestimaria a elasticidade-preço do setor siderúrgico. Com a finalidade de comparar as relações entre as elasticidades-preços de curto e longo prazo foram estimados painéis heterogêneos dinâmicos, através de estimadores Mean Group (MG) e Pooled Mean Group (PMG). É importante ressaltar que, de acordo com o conhecimento do autor, este é o primeiro estudo a usar estimação em painel para estimação da elasticidade-preço da demanda por produtos siderúrgicos no Brasil, dessa forma, controlando a estimativa pela heterogeneidade entre os tipos de aço.
Resumo:
Rio de Janeiro
Resumo:
No início de 2005, uma nova Lei de Falências foi aprovada pelo Congresso Nacional, entrando em meados de junho do mesmo ano. A nova legislação ampliou o grau de proteção ao credor em muitos aspectos. Este artigo busca investigar algumas das consequências empíricas dessa nova lei sobre o mercado de crédito, utilizado dados de firmas argentinas, brasileiras, chilenas e mexicanas para estimar dois modelos para dados em painel: o primeiro com tendências específicas para cada firma e o outro com tendência macro comum às firmas de um mesmo país. A estimação dos dois modelos produziu resultados similares. Foram encontrados impactos significativos sobre a oferta de crédito, o custo da dívida e a oferta de crédito segurado, não-segurado e de longo prazo. Não foram encontrados impactos sobre o total de dívida de curto prazo.
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.
Resumo:
Neste trabalho analisaram-se estratégias de spread calendário de contratos futuros de taxa de juros de curto prazo (STIR – Short Term Interest Rate) em operações de intraday trade. O spread calendário consiste na compra e venda simultânea de contratos de STIR com diferentes maturidades. Cada um dos contratos individualmente se comporta de forma aleatória e dificilmente previsível. No entanto, no longo prazo, pares de contratos podem apresentar um comportamento comum, com os desvios de curto prazo sendo corrigidos nos períodos seguintes. Se este comportamento comum for empiricamente confirmado, há a possibilidade de desenvolver uma estratégia rentável de trading. Para ser bem sucedida, esta estratégia depende da confirmação da existência de um equilíbrio de longo prazo entre os contratos e a definição do limite de spread mais adequado para a mudança de posições entre os contratos. Neste trabalho, foram estudadas amostras de 1304 observações de 5 diferentes séries de spread, coletadas a cada 10 minutos, durante um período de 1 mês. O equilíbrio de longo prazo entre os pares de contratos foi testado empiricamente por meio de modelos de cointegração. Quatro pares mostraram-se cointegrados. Para cada um destes, uma simulação permitiu a estimação de um limite que dispararia a troca de posições entre os contratos, maximizando os lucros. Uma simulação mostrou que a aplicação deste limite, levando em conta custos de comissão e risco de execução, permitiria obter um fluxo de caixa positivo e estável ao longo do tempo.
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
Usando dados intradiários dos ativos mais negociados do Bovespa, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregresive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009)e o Mixed Data Sampling (MIDAS-RV) desenvolvido por Ghysels et. al (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal.
Resumo:
Este trabalho objetivou verificar se é possível estimar um modelo econométrico para prever o comportamento dos emissores de novas cotas de Fundos de Investimentos em Participações (FIPs) com base em algumas variáveis explicativas, em sua grande maioria, variáveis macroeconômicas baseadas no modelo estimado no trabalho de Iaquipaza (2005). Foi analisada uma série histórica de 75 observações, referentes ao número de ofertas públicas de FIPs realizadas em cada mês, no período de outubro de 2003 a dezembro de 2009. Para analisar a série histórica de ofertas públicas de FIPs utilizou-se um modelo de regressão de Poisson, para trabalhar com os dados “contáveis” que compunham a amostra da variável dependente. Os resultados indicaram a influência de algumas variáveis indicadas no trabalho de Iaquipaza (2005) e de outras que foram incluídas no modelo em virtude da especificidade do tipo de ativo analisado. Contudo, o trabalho tem como limitação o fato de ter sido estudada uma indústria ainda incipiente, o que culminou na estimação de um modelo com a utilização de poucas observações.
Resumo:
O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.