931 resultados para estimação
Resumo:
Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).
Resumo:
Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.
Resumo:
Este trabalho apresenta uma metodologia para o cálculo do PIB trimestral a preços constantes nos anos anteriores a 1980, quando o IBGE passou a calcular esse indicador para o Brasil, e apresenta os resultados de sua aplicação aos anos de 1947 a 1980. Para a estimação do indicador do PIB trimestral construiu-se primeiramente uma base de dados composta por séries fortemente associadas ao nível de atividade econômica nacional depois de 1980 e que também estivessem disponíveis em frequência mensal ou trimestral no período 1947-80. Em seguida, aplicou-se às séries dessa base de dados o método do filtro de Kalman com a restrição de que a cada ano a taxa de crescimento das médias do PIB trimestral obtido após a estimação seja igual à variação da série anual calculada pelas Contas Nacionais.
Resumo:
Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.
Resumo:
Esta tese é composta por três ensaios sobre a gestão educacional no Brasil. Os dois primeiros abordam o processo de municipalização do ensino fundamental, destacando suas características e consequências. O terceiro ensaio discute a composição de um indicador de qualidade educacional que melhor reflita a gestão escolar. No primeiro ensaio procuramos entender, separadamente para cada um dos ciclos do ensino fundamental, como o processo de municipalização ocorreu, a partir da decomposição do aumento na proporção de crianças matriculadas em escolas municipais, e quais foram seus efeitos a partir de uma análise descritiva dos dados. No período de 1996 a 2011 foram adicionados à matrícula municipal mais de 2,5 milhões de alunos de 1a a 4a série e mais de 3,0 milhões de alunos de 5a a 8a série, em paralelo à diminuição de 3,67 milhões de matrículas do primeiro ciclo no total e ao aumento de apenas 894 mil matrículas do segundo ciclo. Os resultados da decomposição indicam que para o primeiro ciclo do ensino fundamental os novos alunos matriculados em escolas municipais foram absorvidos em função do aumento no tamanho médio das escolas municipais já existentes; enquanto para o segundo ciclo, os resultados sugerem que a criação de escolas é um forte componente explicativo do aumento na matrícula municipal. Como consequências, temos indícios de que as escolas que transferiram sua gestão apresentaram melhora considerável dos indicadores escolares. Ainda, observamos que a opção pela municipalização pode ter ocorrido naquelas escolas com condições de infraestrutura e insumos escolares mais precárias. Por fim, observamos uma mudança no perfil dos alunos da 4a série do ensino fundamental em função da descentralização administrativa caracterizada por piora das características socioeconômicas médias dos alunos nas escolas transferidas após a mudança de gestão. No segundo ensaio avaliamos econométricamente esses possíveis impactos do processo de municipalização do ensino fundamental sobre o desempenho escolar medido em taxa de aprovação, taxa de abandono, taxa de distorção idade-série e notas em exames de proficiência. Esta análise é feita através da metodologia de diferenças em diferêncas com intensidade de tempo. Analisamos ainda, se os ganhos do processo de descentralização foram diferenciados pelo nível socioeconômico das regiões, a partir da estimação de impactos heterogêneos nas variáveis explicativas. Por fim, avaliamos como o programa de accountability do governo brasileiro, a divulgação do IDEB (Índice de Desenvolvimento da Educação Básica), afetou o desempenho dos alunos em paralelo ao processo de municipalização do ensino fundamental. Os resultados estimados indicam que a relação entre a administração municipal e o desempenho escolar é positiva e crescente com o tempo de exposição ao tratamento. Ainda, que ocorreu redução da desigualdade dos indicadores educacionais - taxa de aprovação, taxa de abandono e taxa de distorção idade-série - em função da descentralização administrativa entre as escolas do primeiro ciclo do ensino fundamental. Por outro lado, o processo de descentralização da gestão escolar levou a aumento da desigualdade nos resultados educacionais medidos por exames de proficiência entre os alunos da 4a e da 8a séries do ensino fundamental. Por fim, observamos que na maioria dos casos analisados, a descentralização administrativa associada ao programa de accountability gerou melhores resultados em termos de desempenho escolar do que quando aplicada de forma isolada, corroborando os resultados encontrados na literatura internacional. No terceiro e último ensaio propomos a criação de um indicador que reflita a qualidade da escola associada aos fatores escolares e que evite dois problemas encontrados em estudos anteriores: indicadores de proficiência em nível que refletem mais o background familiar do aluno do que a qualidade da escola; e estimações de valor adicionado muito sensíveis a erros de mensuração. Assim, os indicadores são obtidos através de um modelo estrutural em que se modela a variável latente de qualidade da escola de modo a corrigir o potencial viés dos estudos anteriores. Utilizamos dados brasileiros para aplicações desses indicadores e revisitamos os fatores de família, escola e gestão para saber quais elementos têm maiores impactos sobre os resultados de educação como proficiência. Os resultados mostram que o ordenamento das escolas pelos indicadores de qualidade difere do ordenamento obtido pelos indicadores com a proficiência em nível e é menos instável do que o ordenamento obtido a partir dos indicadores de valor adicionado puro.
Resumo:
Este tese é composta por quatro ensaios sobre aplicações econométricas em tópicos econômicos relevantes. Os estudos versam sobre consumo de bens não-duráveis e preços de imóveis, capital humano e crescimento econômico, demanda residencial de energia elétrica e, por fim, periodicidade de variáveis fiscais de Estados e Municípios brasileiros. No primeiro artigo, "Non-Durable Consumption and Real-Estate Prices in Brazil: Panel-Data Analysis at the State Level", é investigada a relação entre variação do preço de imóveis e variação no consumo de bens não-duráveis. Os dados coletados permitem a formação de um painel com sete estados brasileiros observados entre 2008- 2012. Os resultados são obtidos a partir da estimação de uma forma reduzida obtida em Campbell e Cocco (2007) que aproxima um modelo estrutural. As estimativas para o caso brasileiro são inferiores as de Campbell e Cocco (2007), que, por sua vez, utilizaram microdados britânicos. O segundo artigo, "Uma medida alternativa de capital humano para o estudo empírico do crescimento", propõe uma forma de mensuração do estoque de capital humano que reflita diretamente preços de mercado, através do valor presente do fluxo de renda real futura. Os impactos dessa medida alternativa são avaliados a partir da estimação da função de produção tradicional dos modelos de crescimento neoclássico. Os dados compõem um painel de 25 países observados entre 1970 e 2010. Um exercício de robustez é realizado para avaliar a estabilidade dos coeficientes estimados diante de variações em variáveis exógenas do modelo. Por sua vez, o terceiro artigo "Household Electricity Demand in Brazil: a microdata approach", parte de dados da Pesquisa de Orçamento Familiar (POF) para mensurar a elasticidade preço da demanda residencial brasileira por energia elétrica. O uso de microdados permite adotar abordagens que levem em consideração a seleção amostral. Seu efeito sobre a demanda de eletricidade é relevante, uma vez que esta demanda é derivada da demanda por estoque de bens duráveis. Nesse contexto, a escolha prévia do estoque de bens duráveis (e consequentemente, a escolha pela intensidade de energia desse estoque) condiciona a demanda por eletricidade dos domicílios. Finalmente, o quarto trabalho, "Interpolação de Variáveis Fiscais Brasileiras usando Representação de Espaço de Estados" procurou sanar o problema de baixa periodicidade da divulgação de séries fiscais de Estados e Municípios brasileiros. Através de técnica de interpolação baseada no Filtro de Kalman, as séries mensais não observadas são projetadas a partir de séries bimestrais parcialmente observadas e covariáveis mensais selecionadas.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics
Resumo:
Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.
Resumo:
O produto potencial é uma variável não-observável e, por isso, de difícil mensuração. O objetivo deste trabalho é contribuir para a discussão sobre a estimação da taxa de crescimento do produto potencial brasileiro através de uma revisão teórica e metodológica das estimativas da variável para a economia brasileira. Após uma análise sintética sobre os principais conceitos relacionados ao tema e sobre os métodos de estimação mais utilizados na literatura nacional, optou-se por utilizar seis tipos de mensurações distintas. As principais conclusões do trabalho foram: primeiramente, as estimativas de Produto Interno Bruto (PIB) potencial são bastante sensíveis à metodologia utilizada; em segundo lugar, baseado em dados trimestrais da economia brasileira, foi possível verificar que a taxa de crescimento do produto potencial brasileiro caiu nos últimos anos e que esta se encontra em uma banda entre 1,63% e 2,72%.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
Este trabalho teve como objetivo verificar como as variáveis de juros, inflação, câmbio e atividade econômica influenciam no custo de colocação da dívida pública pré-fixada nos horizontes de um semestre, um, dois e quatro anos. Com este objetivo, empregou-se a construção de variáveis de duration constante a partir das taxas dos títulos pré-fixados da dívida pública. Os modelos possuem como base a estimação da relação entre a taxa básica de juros, taxas de câmbio e de inflação, vendas no varejo e custo da dívida pré-fixada, utilizando como ferramenta estatística o modelo de vetores autorregressivos. Como resultado concluímos que um aumento na taxa básica de juros no presente gera uma queda no custo da dívida pré-fixada, com o mercado precificando um futuro movimento de queda nos juros. Já uma apreciação do dólar impacta negativamente a dívida, de até um ano, pela necessidade de correção da taxa de juros relativa local e estrangeira e como possível resposta a um aumento de inflação. O aumento na inflação gera a necessidade de aumento dos juros básicos em um prazo mais curto, refletindo então na diminuição das taxas pré-fixadas mais longas a partir de dois anos. A consistente resposta à variável vendas no varejo resulta da precificação de um aumento futuro na taxa básica de juros com o objetivo de desaquecer a atividade econômica.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
Este artigo tem dois objetivos principais. Primeiramente, apresentamos as pnnClpms evidências de que a baixa qualidade do emprego é o maior problema do mercado de trabalho brasileiro. Mostra-se que o país tem absorvido um crescimento da oferta de trabalho significativo ao longo dos últimos anos sem registrar um aumento da taxa de desemprego. No entanto, os postos de trabalho no Brasil são, em média, extremamente precários. Em grande medida, a precariedade do emprego no Brasil está relacionada à alta rotatividade da mão-de-obra, que desincentiva o investimento em treinamento, impedindo o crescimento da produtivid::;de do trabalho. De acordo com os indicadores passíveis de comparação internacional, o Brasil apresenta uma das maiores taxas de rotatividade do mundo. Em segundo lugar, estuda-se a evolução recente do emprego industrial, uma vez que o setor industrial está tradicionalmente associado à geração de bons empregos no Brasil. Mostra-se que o nível de emprego industrial tem se reduzido de forma praticamente contínua desde o início desta década. A estimação de um modelo de ajustamento parcial do emprego nos permite explicar este fenômeno. Mudanças estruturais significativas na elasticidade custo salarial do emprego e no coeficiente de tendência são detectadas a partir do início da década de 90. Um simples modelo teórico é usado de forma a interpretar estas mudanças estruturais como a resposta ótima das empresas industriais ao ambiente de maior competição externa, devido à abertura comercial. Isto, junto com o uso crescente de tecnologias poupadoras de mão-de-obra, são suficientes para explicar a brutal queda do emprego industrial no Brasil ao longo dos últimos seis anos.
Resumo:
Este artigo estuda a validade da Hipótese das Expectativas (HE) racionais para o Brasil, utilizando dados diários de Julho de 1996 a Dezembro de 2002 para prazos entre 1 dia e 1 ano. (i) Os coeficientes do diferencial endimento (yield spread) estimados na equação de mudança de curto prazo da taxa de longo prazo são imprecisos e não permitem conclusão. (ii) A estimação da equação de mudança de curto prazo da taxa curta indica que o diferencial tem poder preditivo. (iii) Os coeficientes do diferencial na equação de mudança de longo prazo da taxa curta são mais precisamente estimados e não são significativamente diferentes da unidade. (iv) A previsão de expectativas racionais da mudança de longo prazo da taxa curta é altamente correlacionada com o diferencial, e (iv) o diferencial observado é mais volátil que o diferencial teórico. Os resultados dos testes rejeitam a hipótese particular coeficiente unitário, porém reconhecem o poder preditivo do diferencial observado.
Resumo:
Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.