197 resultados para Estimação bayesiana
Resumo:
Este trabalho teve como objetivo verificar como as variáveis de juros, inflação, câmbio e atividade econômica influenciam no custo de colocação da dívida pública pré-fixada nos horizontes de um semestre, um, dois e quatro anos. Com este objetivo, empregou-se a construção de variáveis de duration constante a partir das taxas dos títulos pré-fixados da dívida pública. Os modelos possuem como base a estimação da relação entre a taxa básica de juros, taxas de câmbio e de inflação, vendas no varejo e custo da dívida pré-fixada, utilizando como ferramenta estatística o modelo de vetores autorregressivos. Como resultado concluímos que um aumento na taxa básica de juros no presente gera uma queda no custo da dívida pré-fixada, com o mercado precificando um futuro movimento de queda nos juros. Já uma apreciação do dólar impacta negativamente a dívida, de até um ano, pela necessidade de correção da taxa de juros relativa local e estrangeira e como possível resposta a um aumento de inflação. O aumento na inflação gera a necessidade de aumento dos juros básicos em um prazo mais curto, refletindo então na diminuição das taxas pré-fixadas mais longas a partir de dois anos. A consistente resposta à variável vendas no varejo resulta da precificação de um aumento futuro na taxa básica de juros com o objetivo de desaquecer a atividade econômica.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
Este artigo tem dois objetivos principais. Primeiramente, apresentamos as pnnClpms evidências de que a baixa qualidade do emprego é o maior problema do mercado de trabalho brasileiro. Mostra-se que o país tem absorvido um crescimento da oferta de trabalho significativo ao longo dos últimos anos sem registrar um aumento da taxa de desemprego. No entanto, os postos de trabalho no Brasil são, em média, extremamente precários. Em grande medida, a precariedade do emprego no Brasil está relacionada à alta rotatividade da mão-de-obra, que desincentiva o investimento em treinamento, impedindo o crescimento da produtivid::;de do trabalho. De acordo com os indicadores passíveis de comparação internacional, o Brasil apresenta uma das maiores taxas de rotatividade do mundo. Em segundo lugar, estuda-se a evolução recente do emprego industrial, uma vez que o setor industrial está tradicionalmente associado à geração de bons empregos no Brasil. Mostra-se que o nível de emprego industrial tem se reduzido de forma praticamente contínua desde o início desta década. A estimação de um modelo de ajustamento parcial do emprego nos permite explicar este fenômeno. Mudanças estruturais significativas na elasticidade custo salarial do emprego e no coeficiente de tendência são detectadas a partir do início da década de 90. Um simples modelo teórico é usado de forma a interpretar estas mudanças estruturais como a resposta ótima das empresas industriais ao ambiente de maior competição externa, devido à abertura comercial. Isto, junto com o uso crescente de tecnologias poupadoras de mão-de-obra, são suficientes para explicar a brutal queda do emprego industrial no Brasil ao longo dos últimos seis anos.
Resumo:
Este artigo estuda a validade da Hipótese das Expectativas (HE) racionais para o Brasil, utilizando dados diários de Julho de 1996 a Dezembro de 2002 para prazos entre 1 dia e 1 ano. (i) Os coeficientes do diferencial endimento (yield spread) estimados na equação de mudança de curto prazo da taxa de longo prazo são imprecisos e não permitem conclusão. (ii) A estimação da equação de mudança de curto prazo da taxa curta indica que o diferencial tem poder preditivo. (iii) Os coeficientes do diferencial na equação de mudança de longo prazo da taxa curta são mais precisamente estimados e não são significativamente diferentes da unidade. (iv) A previsão de expectativas racionais da mudança de longo prazo da taxa curta é altamente correlacionada com o diferencial, e (iv) o diferencial observado é mais volátil que o diferencial teórico. Os resultados dos testes rejeitam a hipótese particular coeficiente unitário, porém reconhecem o poder preditivo do diferencial observado.
Resumo:
Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.
Resumo:
Este estudo visa avaliar o impacto das transferências de recursos incondicionais nos indicadores de saúde dos municípios brasileiros. A transferência abordada refere-se ao Fundo de Participação dos Municípios (FPM), tal recurso não possui uma destinação pré-definida pelo Governo Federal, porém pelo menos 15% do seu valor deve ser gasto em saúde pública. A base de dados utilizada teve como principais fontes o DATASUS e o SIOPS, a periodicidade é anual e a unidade de observação refere-se aos municípios. Para estimar o impacto do FPM na mortalidade, na morbidade e nas medidas preventivas, foram aplicadas duas metodologias econométricas: Painel com efeito fixo e Regressão Descontínua. A primeira abrangeu o período de 2002 a 2011 e os resultados encontrados mostram que o FPM possui um impacto negativo significante na mortalidade total e para os indivíduos de 15 a 29 anos, 30 a 59 anos e 60 anos ou mais. Em relação à morbidade, os modelos em Painel com efeito fixo mostraram um impacto negativo do FPM sobre as internações hospitalares. Para as medidas preventivas, as estimações apresentaram resultados não significantes ou então opostos ao esperado. O método da Regressão Descontínua foi também aplicado, pois o FPM apresenta características de descontinuidade, o que traz a possibilidade de uma aplicação econométrica cada vez mais utilizada e que possui uma estratégia de identificação que deve levar a resultados similares aos de um experimento aleatório. O período utilizado para tal estimação refere-se aos anos de 2002 a 2010. A partir desse método, verificou-se resultados bastante sutis em relação ao impacto do FPM sobre os indicadores de saúde: para mortalidade o FPM não apresentou impacto significativo e robusto, para morbidade novamente foi encontrado um impacto negativo e significante, e, por fim, para as medidas preventivas o resultado mais robusto refere-se às consultas do Programa Saúde da Família, em que o FPM apresentou impacto positivo e significante para alguns dos coeficientes gerados.
Resumo:
Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.
Resumo:
Este trabalho tem como objetivo estudar como os anúncios de alterações nos ratings de crédito afetam o valor de mercado das empresas brasileiras. Isso foi feito considerando as divulgações de rating pelo período de 3 anos para o universo de empresas que compõem o índice Bovespa de ações. A metodologia escolhida foi a de Estudo de Evento, utilizando o Market Model como forma de estimação dos retornos normais das ações para uma janela de estimação de 1 ano. Como resultado verificou-se que as divulgações dos ratings têm influência no preço das ações, sendo esse efeito mais acentuado no caso dos rebaixamentos de rating (downgrades): os investidores tendem a antecipar a divulgação do downgrade já que o preço das ações cai antes dessa data e volta a subir depois dela. Essa conclusão está em linha com a de estudos semelhantes feitos com ações europeias e americanas. Outra conclusão foi a de que separando a amostra de downgrades entre empresas investment grade e non-investment grade o efeito dos anúncios de rating é mais acentuado no segundo grupo.
Resumo:
Este estudo tem como objetivo avaliar a influência da Tecnologia de Informação (TI) no Desempenho Empresarial sob o direcionamento da Estratégia de Negócio. A pesquisa faz um estudo específico da TI pelo alinhamento estratégico da tecnologia na integração, uso e benefícios da TI ao negócio e a influência nas diversas perspectivas de desempenho da firma. A estratégia recebe o recorte na pesquisa da orientação estratégica ao impactar a integração da TI ao negócio. O estudo utilizou da técnica de modelagem em equações estruturais com estimação PLS-PM (Partial Least Squares Path Modeling) num estudo empírico de 222 empresas. Os resultados indicam influência da TI no desempenho empresarial, ao explicar a variabilidade de 34,1% do desempenho de aprendizado & crescimento, 46.1% do desempenho do processo interno, 44,7% do desempenho do mercado, e 32,7% do desempenho financeiro. O estudo possibilitou explicar 74,1% da variabilidade do uso e benefícios da TI à estratégia e os processos de negócio e os diversos efeitos da TI no desempenho empresarial, além de destacar a importância e ênfase dada pelas empresas às variáveis da orientação estratégica. O modelo possibilitou explicar a variabilidade das várias perspectivas do desempenho e sugere outras formas de mensurar a adoção e uso da tecnologia nas organizações.
Resumo:
O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.
Resumo:
O objetivo desse trabalho é medir e analisar a produtividade da indústria extrativa brasileira como um todo e seus subsetores. Primeiramente foi feita a estimação da produtividade multifatorial utilizando o método clássico proposto por Robert Solow de onde se verificou uma queda na produtividade do setor no período entre 1997 e 2009. Posteriormente foi feita uma nova estimação dessa produtividade que corrige as mudanças na qualidade dos minerais extraídos. Observou-se que a queda na produtividade, no período analisado, foi ainda mais acentuada.
Resumo:
Utilizando uma adaptação do modelo de Telles e Mussolini (2014), o presente trabalho busca discutir as caracterizações da matriz tributária, discutindo como as variações na matriz tributária podem impactar na política fiscal. Discute-se com base na diferenciação dos impostos em cinco grupos, a saber: impostos sobre salários, impostos sobre investimentos, impostos sobre consumo, impostos sobre renda e riqueza, e impostos sobre comércio internacional, a partir dos quais argumenta-se quais seus impactos para a política fiscal, para a interação das variáveis econômicas e a evolução destas variáveis, assim como a relação entre a preferência por uma determinada estrutura tributária e o endividamento de um país. Após a discussão teórica, faz-se uma análise descritiva da evolução destas variáveis tributárias para cada categoria de tributo, relacionando a sua evolução no tempo para um grupo de 64 países, tomados a partir do trabalho de Telles e Mussolini (2014), assim como relacionando a sua evolução intertemporal. Por fim, faz-se uma análise da estrutura tributária destes países, discutindo, na análise dos dados em painel, os resultados para as estimativas em modelos de efeitos fixos e efeitos aleatórios, os resultados da estimação pelo modelo Arellano-Bond, e utilizando-se a abordagem instrumental pelo Método Generalizado dos Momentos, onde se conclui que a taxação sobre a riqueza e a taxação sobre o comércio internacional com fins de financiar o excesso de gastos do governo impacta de forma negativa na trajetória de crescimento, entre outros resultados.
Resumo:
Este trabalho apresenta metodologia de mensuração e gestão de risco para empresas do ramo frigorífico. A ferramenta utilizada é conhecida como Earnings at Risk (EaR), e se adota uma visão top-down, que mostra a variação do resultado da empresa de acordo com variáveis explicativas de mercado e variáveis idiossincráticas. Através da eliminação de multicolinearidade entre essas variáveis com o uso da métrica de Análise de Componentes Principais (ACP), busca-se analisar como o novo EaR se comportaria frente ao enfoque usual, construído com um modelo de regressão linear múltipla. Variáveis dummy fazem parte do modelo de estimação do resultado futuro das empresas frigoríficas, relacionadas à ocorrência ou não de doenças que afetam o gado bovino, e à retirada de embargos econômicos de países importadores durante o período de análise. Ao fim do trabalho é verificado que as variáveis dummy não possuem relevância para a determinação de EaR, e que não se chega a conclusão de que o modelo de EaR com ACP se mostra melhor com menos variáveis, mantendo a mesma variância e significância estatística originais.
Resumo:
Este Trabalho se Dedica ao exercício empírico de gerar mais restrições ao modelo de apreçamento de ativos com séries temporais desenvolvido por Hansen e Singleton JPE 1983. As restrições vão, desde um simples aumento qualitativo nos ativos estudados até uma extensão teórica proposta a partir de um estimador consistente do fator estocástico de desconto. As estimativas encontradas para a aversão relativa ao risco do agente representativo estão dentro do esperado, na maioria dos casos, já que atingem valores já encontrados na literatura além do fato destes valores serem economicamente plausíveis. A extensão teórica proposta não atingiu resultados esperados, parecendo melhorar a estimação do sistema marginalmente.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.