185 resultados para Estimação TMDA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este tese é composta por quatro ensaios sobre aplicações econométricas em tópicos econômicos relevantes. Os estudos versam sobre consumo de bens não-duráveis e preços de imóveis, capital humano e crescimento econômico, demanda residencial de energia elétrica e, por fim, periodicidade de variáveis fiscais de Estados e Municípios brasileiros. No primeiro artigo, "Non-Durable Consumption and Real-Estate Prices in Brazil: Panel-Data Analysis at the State Level", é investigada a relação entre variação do preço de imóveis e variação no consumo de bens não-duráveis. Os dados coletados permitem a formação de um painel com sete estados brasileiros observados entre 2008- 2012. Os resultados são obtidos a partir da estimação de uma forma reduzida obtida em Campbell e Cocco (2007) que aproxima um modelo estrutural. As estimativas para o caso brasileiro são inferiores as de Campbell e Cocco (2007), que, por sua vez, utilizaram microdados britânicos. O segundo artigo, "Uma medida alternativa de capital humano para o estudo empírico do crescimento", propõe uma forma de mensuração do estoque de capital humano que reflita diretamente preços de mercado, através do valor presente do fluxo de renda real futura. Os impactos dessa medida alternativa são avaliados a partir da estimação da função de produção tradicional dos modelos de crescimento neoclássico. Os dados compõem um painel de 25 países observados entre 1970 e 2010. Um exercício de robustez é realizado para avaliar a estabilidade dos coeficientes estimados diante de variações em variáveis exógenas do modelo. Por sua vez, o terceiro artigo "Household Electricity Demand in Brazil: a microdata approach", parte de dados da Pesquisa de Orçamento Familiar (POF) para mensurar a elasticidade preço da demanda residencial brasileira por energia elétrica. O uso de microdados permite adotar abordagens que levem em consideração a seleção amostral. Seu efeito sobre a demanda de eletricidade é relevante, uma vez que esta demanda é derivada da demanda por estoque de bens duráveis. Nesse contexto, a escolha prévia do estoque de bens duráveis (e consequentemente, a escolha pela intensidade de energia desse estoque) condiciona a demanda por eletricidade dos domicílios. Finalmente, o quarto trabalho, "Interpolação de Variáveis Fiscais Brasileiras usando Representação de Espaço de Estados" procurou sanar o problema de baixa periodicidade da divulgação de séries fiscais de Estados e Municípios brasileiros. Através de técnica de interpolação baseada no Filtro de Kalman, as séries mensais não observadas são projetadas a partir de séries bimestrais parcialmente observadas e covariáveis mensais selecionadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo verificar como as variáveis de juros, inflação, câmbio e atividade econômica influenciam no custo de colocação da dívida pública pré-fixada nos horizontes de um semestre, um, dois e quatro anos. Com este objetivo, empregou-se a construção de variáveis de duration constante a partir das taxas dos títulos pré-fixados da dívida pública. Os modelos possuem como base a estimação da relação entre a taxa básica de juros, taxas de câmbio e de inflação, vendas no varejo e custo da dívida pré-fixada, utilizando como ferramenta estatística o modelo de vetores autorregressivos. Como resultado concluímos que um aumento na taxa básica de juros no presente gera uma queda no custo da dívida pré-fixada, com o mercado precificando um futuro movimento de queda nos juros. Já uma apreciação do dólar impacta negativamente a dívida, de até um ano, pela necessidade de correção da taxa de juros relativa local e estrangeira e como possível resposta a um aumento de inflação. O aumento na inflação gera a necessidade de aumento dos juros básicos em um prazo mais curto, refletindo então na diminuição das taxas pré-fixadas mais longas a partir de dois anos. A consistente resposta à variável vendas no varejo resulta da precificação de um aumento futuro na taxa básica de juros com o objetivo de desaquecer a atividade econômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo tem dois objetivos principais. Primeiramente, apresentamos as pnnClpms evidências de que a baixa qualidade do emprego é o maior problema do mercado de trabalho brasileiro. Mostra-se que o país tem absorvido um crescimento da oferta de trabalho significativo ao longo dos últimos anos sem registrar um aumento da taxa de desemprego. No entanto, os postos de trabalho no Brasil são, em média, extremamente precários. Em grande medida, a precariedade do emprego no Brasil está relacionada à alta rotatividade da mão-de-obra, que desincentiva o investimento em treinamento, impedindo o crescimento da produtivid::;de do trabalho. De acordo com os indicadores passíveis de comparação internacional, o Brasil apresenta uma das maiores taxas de rotatividade do mundo. Em segundo lugar, estuda-se a evolução recente do emprego industrial, uma vez que o setor industrial está tradicionalmente associado à geração de bons empregos no Brasil. Mostra-se que o nível de emprego industrial tem se reduzido de forma praticamente contínua desde o início desta década. A estimação de um modelo de ajustamento parcial do emprego nos permite explicar este fenômeno. Mudanças estruturais significativas na elasticidade custo salarial do emprego e no coeficiente de tendência são detectadas a partir do início da década de 90. Um simples modelo teórico é usado de forma a interpretar estas mudanças estruturais como a resposta ótima das empresas industriais ao ambiente de maior competição externa, devido à abertura comercial. Isto, junto com o uso crescente de tecnologias poupadoras de mão-de-obra, são suficientes para explicar a brutal queda do emprego industrial no Brasil ao longo dos últimos seis anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo estuda a validade da Hipótese das Expectativas (HE) racionais para o Brasil, utilizando dados diários de Julho de 1996 a Dezembro de 2002 para prazos entre 1 dia e 1 ano. (i) Os coeficientes do diferencial endimento (yield spread) estimados na equação de mudança de curto prazo da taxa de longo prazo são imprecisos e não permitem conclusão. (ii) A estimação da equação de mudança de curto prazo da taxa curta indica que o diferencial tem poder preditivo. (iii) Os coeficientes do diferencial na equação de mudança de longo prazo da taxa curta são mais precisamente estimados e não são significativamente diferentes da unidade. (iv) A previsão de expectativas racionais da mudança de longo prazo da taxa curta é altamente correlacionada com o diferencial, e (iv) o diferencial observado é mais volátil que o diferencial teórico. Os resultados dos testes rejeitam a hipótese particular coeficiente unitário, porém reconhecem o poder preditivo do diferencial observado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa avaliar o impacto das transferências de recursos incondicionais nos indicadores de saúde dos municípios brasileiros. A transferência abordada refere-se ao Fundo de Participação dos Municípios (FPM), tal recurso não possui uma destinação pré-definida pelo Governo Federal, porém pelo menos 15% do seu valor deve ser gasto em saúde pública. A base de dados utilizada teve como principais fontes o DATASUS e o SIOPS, a periodicidade é anual e a unidade de observação refere-se aos municípios. Para estimar o impacto do FPM na mortalidade, na morbidade e nas medidas preventivas, foram aplicadas duas metodologias econométricas: Painel com efeito fixo e Regressão Descontínua. A primeira abrangeu o período de 2002 a 2011 e os resultados encontrados mostram que o FPM possui um impacto negativo significante na mortalidade total e para os indivíduos de 15 a 29 anos, 30 a 59 anos e 60 anos ou mais. Em relação à morbidade, os modelos em Painel com efeito fixo mostraram um impacto negativo do FPM sobre as internações hospitalares. Para as medidas preventivas, as estimações apresentaram resultados não significantes ou então opostos ao esperado. O método da Regressão Descontínua foi também aplicado, pois o FPM apresenta características de descontinuidade, o que traz a possibilidade de uma aplicação econométrica cada vez mais utilizada e que possui uma estratégia de identificação que deve levar a resultados similares aos de um experimento aleatório. O período utilizado para tal estimação refere-se aos anos de 2002 a 2010. A partir desse método, verificou-se resultados bastante sutis em relação ao impacto do FPM sobre os indicadores de saúde: para mortalidade o FPM não apresentou impacto significativo e robusto, para morbidade novamente foi encontrado um impacto negativo e significante, e, por fim, para as medidas preventivas o resultado mais robusto refere-se às consultas do Programa Saúde da Família, em que o FPM apresentou impacto positivo e significante para alguns dos coeficientes gerados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar como os anúncios de alterações nos ratings de crédito afetam o valor de mercado das empresas brasileiras. Isso foi feito considerando as divulgações de rating pelo período de 3 anos para o universo de empresas que compõem o índice Bovespa de ações. A metodologia escolhida foi a de Estudo de Evento, utilizando o Market Model como forma de estimação dos retornos normais das ações para uma janela de estimação de 1 ano. Como resultado verificou-se que as divulgações dos ratings têm influência no preço das ações, sendo esse efeito mais acentuado no caso dos rebaixamentos de rating (downgrades): os investidores tendem a antecipar a divulgação do downgrade já que o preço das ações cai antes dessa data e volta a subir depois dela. Essa conclusão está em linha com a de estudos semelhantes feitos com ações europeias e americanas. Outra conclusão foi a de que separando a amostra de downgrades entre empresas investment grade e non-investment grade o efeito dos anúncios de rating é mais acentuado no segundo grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo avaliar a influência da Tecnologia de Informação (TI) no Desempenho Empresarial sob o direcionamento da Estratégia de Negócio. A pesquisa faz um estudo específico da TI pelo alinhamento estratégico da tecnologia na integração, uso e benefícios da TI ao negócio e a influência nas diversas perspectivas de desempenho da firma. A estratégia recebe o recorte na pesquisa da orientação estratégica ao impactar a integração da TI ao negócio. O estudo utilizou da técnica de modelagem em equações estruturais com estimação PLS-PM (Partial Least Squares Path Modeling) num estudo empírico de 222 empresas. Os resultados indicam influência da TI no desempenho empresarial, ao explicar a variabilidade de 34,1% do desempenho de aprendizado & crescimento, 46.1% do desempenho do processo interno, 44,7% do desempenho do mercado, e 32,7% do desempenho financeiro. O estudo possibilitou explicar 74,1% da variabilidade do uso e benefícios da TI à estratégia e os processos de negócio e os diversos efeitos da TI no desempenho empresarial, além de destacar a importância e ênfase dada pelas empresas às variáveis da orientação estratégica. O modelo possibilitou explicar a variabilidade das várias perspectivas do desempenho e sugere outras formas de mensurar a adoção e uso da tecnologia nas organizações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.