301 resultados para Oferta e procura – Previsão - Modelos econométricos
Resumo:
Usando dados intradiários dos ativos mais negociados do Bovespa, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregresive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009)e o Mixed Data Sampling (MIDAS-RV) desenvolvido por Ghysels et. al (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal.
Resumo:
As expectativas de inflação medidas pelos agentes passaram a ser fundamentais após a implantação do regime de metas inflacionárias pelo Banco Central. Este trabalho procura verificar o poder preditivo da inflação estimada pelos agentes que contribuem para as expectativas do Relatório Focus e as inflações medidas pelo diferencial entre títulos pré-fixados e cupons de títulos indexados ao IPCA, as chamadas inflações implícitas ou compensatórias. Procura-se verificar qual das variáveis apresenta melhor capacidade de previsão da inflação realizada através da constituição de modelos de regressão linear. Também se busca mostrar a acuidade dessas variáveis em intervalos de tempos futuros de 3 (três) a 30 (trinta) meses. O trabalho revela que as inflações implícitas são melhores estimadores que as inflações medidas pelo Focus para períodos mais longos acima de 9 (nove) meses, porém o último tem maior poder preditivo para horizontes curtos de até 6 (seis) meses.
Resumo:
Este trabalho estuda a previsão da taxa de juros com foco em uma estratégia de investimento. Inicialmente é feita a parametrização da taxa de juros com o modelo de Vasicek para posterior aplicação do modelo autorregressivo tanto na taxa de juros quanto nos parâmetros do Vasicek. O instrumento financeiro escolhido para verificar a eficácia da metodologia proposta foi o constant matutity swap aplicado em alguns vértices. Os resultados variaram significativamente para os diferentes horizontes de calibragem e períodos de amostragem sem um padrão de desempenho.
Resumo:
o tema sobre a estrutura administrativa mais adequada para um Banco Central do Brasil, que procura sua autonomia, se desenrola a partir da situação administrativa do BACEN, que se apresenta no dias de hoje, e os questionamentos a respeito de sua independência, nos Capítulos 1 e 2, passando por modelos teóricos de estrutura administrativa e por modelos funcionais de Bancos Centrais independentes, comparados entre si e com o modelo brasileiro, nos Capítulos 3 e 4. Em seguida, são demonstrados os empenhos que se efetivam em realidade para que o BACEN chegue à sua autonomia, através de projetos que tramitam no Congresso Nacional e do Plano de Ação Estratégica para o BACEN, referidos nos Capítulos 5 e 6, até se chegar às opiniões de especialistas, no Capítulo 7, que serviram para reforçar a conclusão de que a mudança organizacional em busca da autonomia do Banco Central do Brasil não é apenas em decorrência do levantamento de aspectos técnicos, políticos e econômicos e, sim, uma consequência de um processo maior de integração entre estes e os aspectos comportamentais e administrativos dessa organização.
Resumo:
Com origem no setor imobiliário americano, a crise de crédito de 2008 gerou grandes perdas nos mercados ao redor do mundo. O mês de outubro do mesmo ano concentrou a maior parte da turbulência, apresentando também uma explosão na volatilidade. Em meados de 2006 e 2007, o VIX, um índice de volatilidade implícita das opções do S&P500, registrou uma elevação de patamar, sinalizando o possível desequilíbrio existente no mercado americano. Esta dissertação analisa se o consenso de que a volatilidade implícita é a melhor previsora da volatilidade futura permanece durante o período de crise. Os resultados indicam que o VIX perde poder explicativo ao se passar do período sem crise para o de crise, sendo ultrapassado pela volatilidade realizada.
Resumo:
A previsão dos preços do petróleo é fundamental para o planejamento energético e oferece subsídio a tomada de decisões de longo prazo, que envolvem custos irrecuperáveis. No entanto, os preços do petróleo são muito instáveis sujeitos a choques como resultado de questões geopolíticas, poder de mercado da OPEP (Organização dos Países Exportadores de Petróleo) e pressões de demanda resultando numa série sujeita a quebras estruturais, prejudicando a estimação e previsão de modelos de série temporal. Dada a limitação dos modelos de volatilidade da família GARCH, que são instáveis e apresentam elevada persistência em séries com mudanças estruturais, este trabalho compara a previsão da volatilidade, em termos de intervalos de confiança e persistência, dos modelos de volatilidade com mudança de regime markoviana em relação aos modelos de volatilidade determinísticos. Os modelos de volatilidade com mudança de regime considerados são o modelo SWARCH (Markov Switch ARCH) e introduz-se o modelo MSIH (Markov Switch Intercept Heteroskedasticity) para o estudo da volatilidade. Como resultado as previsões de volatilidade dos modelos com mudança de regime permitem uma estimação da volatilidade que reduz substancialmente a persistência em relação aos modelos GARCH.
Resumo:
Usando dados intradiários dos ativos mais negociados do BOVESPA, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregressive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009) e o Mixed Data Sampling (MIDAS-RV), desenvolvido por Ghysels et al. (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal
Resumo:
Este artigo estuda a previsão da estrutura a termo da taxa de juros brasileira utilizando de fatores comuns extraídos de uma vasta base de séries macroeconômicas. Os períodos para estimação e previsão compreendem o intervalo de Janeiro de 2000 a Maio de 2012. Foram empregas 171 séries mensais para a construção da base. Primeiramente foi implementado o modelo proposto por Moench (2008), no qual a dinâmica da taxa de juros de curto prazo é modelada através de um FAVAR e a estrutura a termo é derivada utilizando-se de restrições implicadas por não arbitragem. A escolha pela adoção deste modelo se deve aos resultados obtidos no estudo original, nos quais tal modelagem apresentou melhor desempenho preditivo para horizontes intermediários e longos quando comparado com benchmarks usuais. Contudo, tais resultados também apresentaram uma deterioração progressiva à medida que as maturidades aumentam, evidenciando uma possível inadequação do modelo para as partes intermediária e longa da curva. A implementação deste modelo para a estrutura a termo brasileira levou a resultados muito similares ao do estudo original. Visando contornar a deterioração mencionada, foi proposta uma modelagem alternativa na qual a dinâmica de cada taxa é modelada conjuntamente com os fatores macroeconômicos, eliminando-se as restrições implicadas por não arbitragem. Tal modelagem proporcionou resultados de previsão amplamente superiores e através dela foi possível confirmar a inadequação descrita. Por fim, também foi realizada a inserção dos fatores macro na dinâmica dos fatores beta do modelo de Diebold e Li (2006), levando a um grande ganho de capacidade preditiva, principalmente para horizontes maiores de previsão.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.
Resumo:
Em ofertas públicas de ações, sejam elas ofertas públicas iniciais (IPO) ou ofertas públicas subseqüentes (SEO), cuja venda ocorre via garantia firme de subscrição e liquidação é comum a inclusão de uma clausula de estabilização, que permite aos underwriters recomprar ações no mercado após o início das negociações com o objetivo de postergar ou evitar a queda do valor. As ações recompradas são aquelas provenientes da opção dada pelo emissor ao underwriter para a venda em excesso de até 15% das ações inicialmente ofertadas, além disso, no caso de forte demanda uma venda complementar pode ocorrer até o limite de 20% da oferta inicial, chamada de hot-issue, porém essas ações não são passíveis de recompra. A opção de greenshoe permite ao underwriter comprar parte ou todas as ações vendidas em excesso, aumentando a oferta permanentemente. Essa tese avalia, nesta ordem, os principais determinantes da estabilização e efeitos no retorno de curto prazo de SEOs, os efeitos sobre o custo da emissão e depois o efeito sobre o retorno de longo prazo de SEOs e IPOs, cada assunto é tratado em um capítulo diferente e independente, após um capítulo introdutório que descreve a estrutura da tese. No primeiro, os resultados indicam que em SEOs o risco, a liquidez e a demanda de investidores institucionais nacionais e estrangeiros são importantes na determinação da sobrealocação e ocorrência da estabilização, e que além desses fatores a demanda dos investidores de varejo também influencia a intensidade da estabilização. Quanto aos efeitos no retorno imediatamente após o fim da estabilização, SEOs não estabilizados apresentam retorno de curto prazo maior que os estabilizados não há, em média, queda do preço das ações após o fim da estabilização, no entanto, foi constatado que SEOs intensamente estabilizados apresentam retorno pós-estabilização menores. No segundo, foi constatada que os underwriters prevêem a intensidade da estabilização e/ou do exercício do greenshoe e hot-issue, e uma vez que são remunerados pela venda dessas ações suplementares, ajustam ex-ante a remuneração cobrada dos emissores, não se apropriando um eventual lucro nem suportando o custo de recompra e devolução das ações. Esses resultados foram observados tanto nos IPOs quanto nos SEOs e o mesmo efeito foi observado nos custos totais. 7 No último foi mostrado que o nível de estabilização e/ou exercício do greenshoe e hot-issue não afetam o retorno de longo prazo dos IPOs, no entanto exercício do greenshoe e hot-issue afetou negativamente o retorno acumulado ajustado dos SEOs até o 3º ano após a emissão, inclusive quando controlado pelo volume da emissão e market-to-book. Algumas contribuições importantes desta tese são: 1) apesar da diferença no nível de risco, os resultados da ocorrência e intensidade da estabilização são em geral semelhantes àqueles observados para IPOs; 2) este é o primeiro trabalho a analisar as conseqüências da estabilização no retorno de curto prazo dos SEOs, bem como a constatar que o retorno de mercado influencia intensidade da estabilização; 3) pela primeira vez mostra que as dimensões do processo de estabilização são antecipadas pelos underwriters e no contexto de um mercado competitivo, são incorporadas ao custo da emissão de IPOs e SEO; 4) constata que o processo de estabilização possui efeito sobre retorno de longo prazo dos SEOs. Todos esses resultados lançam dúvida quanto aos estudos sobre retorno e remuneração em ofertas públicas que excluem essas informações de seus modelos.
Resumo:
Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.
Resumo:
Este trabalho tem o objetivo de testar a qualidade preditiva do Modelo Vasicek de dois fatores acoplado ao Filtro de Kalman. Aplicado a uma estratégia de investimento, incluímos um critério de Stop Loss nos períodos que o modelo não responde de forma satisfatória ao movimento das taxas de juros. Utilizando contratos futuros de DI disponíveis na BMFBovespa entre 01 de março de 2007 a 30 de maio de 2014, as simulações foram realizadas em diferentes momentos de mercado, verificando qual a melhor janela para obtenção dos parâmetros dos modelos, e por quanto tempo esses parâmetros estimam de maneira ótima o comportamento das taxas de juros. Os resultados foram comparados com os obtidos pelo Modelo Vetor-auto regressivo de ordem 1, e constatou-se que o Filtro de Kalman aplicado ao Modelo Vasicek de dois fatores não é o mais indicado para estudos relacionados a previsão das taxas de juros. As limitações desse modelo o restringe em conseguir estimar toda a curva de juros de uma só vez denegrindo seus resultados.
Resumo:
O objetivo desta Tese é compreender o papel dos estados brasileiros nas relações intergovernamentais no Brasil. Especificamente, busca-se analisar se os mesmos podem desempenhar um papel de coordenação estadual, como o governo federal o faz em algumas Federações com a finalidade de reduzir diversidades, principalmente, desigualdades socioeconômicas e institucionais. Essa relação é analisada na Educação, já que a Constituição Federal de 1988 determinou que estados e municípios compartilhem competências na oferta do ensino fundamental e que deve haver colaboração, especialmente, nessa etapa do ensino. No entanto, a trajetória dessa política é caracterizada por uma grande diversidade na sua oferta e na cooperação entre os estados e os municípios, na medida em que o regime de colaboração nunca foi regulamentado. A pesquisa envolveu o entendimento sobre a trajetória da política educacional, o funcionamento do Sistema Nacional de Educação, as relações entre estados e municípios na Educação, os resultados da cooperação nas políticas municipais de Educação em quatro estados – Ceará, Mato Grosso do Sul, Pará e São Paulo – e nos resultados educacionais. Como resultado, conclui-se que há diferentes modelos de cooperação entre os governos subnacionais na Educação, sendo que, somente o caso cearense se caracteriza como de coordenação estadual.
Resumo:
A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.
Resumo:
Passados mais de dez anos do reconhecimento da autonomia administrativa, financeira e orçamentária às Defensorias Públicas Estaduais, o que se deu através da Emenda Constitucional n° 45/2004, ainda é possível encontrar instituições desta espécie que sofrem com interferências diárias nos mais variados aspectos de sua administração, em total desrespeito ao que determina a nossa Lei Fundamental. Entretanto, curiosamente este problema não tem se mostrado de maneira uniforme no cenário nacional, havendo estados onde as Defensorias Públicas gozam de mais autonomia e prestígio, enquanto existem outros onde estas sofrem para ter igual direito reconhecido. Neste sentido, partindo de um referencial teórico básico sobre autonomia da Defensoria Pública, a presente pesquisa teve por objetivo explorar os elementos que compõe tal conceito, buscando posteriormente verificar e descrever as assimetrias existentes entre os modelos de autonomia encontrados nas Defensorias Públicas estaduais ao redor do país. Para tanto, foram coletados dados através de observação direta, pesquisa documental e entrevistas, os quais foram posteriormente tratados e interpretados através da metodologia da análise de conteúdo. Os resultados obtidos através das consolidações efetuadas no âmbito das cincos categorias de análise propostas permitiram a conclusão de que a assimetria entre os modelos existentes é um fato, sendo perceptível principalmente nas áreas de Administração Financeira e Orçamentária, bem como na Formação da Alta Administração da Instituição. Também foram constatadas duas barreiras fundamentais para a implantação do modelo de autonomia preconizado pelo ordenamento, qual seja, a baixa autonomia na previsão de despesas no processo orçamentário e a ausência de limite próprio de pessoal para a Defensoria Pública na Lei de Responsabilidade Fiscal.