302 resultados para Taxas de juros - Previsão
Resumo:
Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.
Resumo:
Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.
Resumo:
Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.
Resumo:
Este trabalho teve como objetivo verificar como as variáveis de juros, inflação, câmbio e atividade econômica influenciam no custo de colocação da dívida pública pré-fixada nos horizontes de um semestre, um, dois e quatro anos. Com este objetivo, empregou-se a construção de variáveis de duration constante a partir das taxas dos títulos pré-fixados da dívida pública. Os modelos possuem como base a estimação da relação entre a taxa básica de juros, taxas de câmbio e de inflação, vendas no varejo e custo da dívida pré-fixada, utilizando como ferramenta estatística o modelo de vetores autorregressivos. Como resultado concluímos que um aumento na taxa básica de juros no presente gera uma queda no custo da dívida pré-fixada, com o mercado precificando um futuro movimento de queda nos juros. Já uma apreciação do dólar impacta negativamente a dívida, de até um ano, pela necessidade de correção da taxa de juros relativa local e estrangeira e como possível resposta a um aumento de inflação. O aumento na inflação gera a necessidade de aumento dos juros básicos em um prazo mais curto, refletindo então na diminuição das taxas pré-fixadas mais longas a partir de dois anos. A consistente resposta à variável vendas no varejo resulta da precificação de um aumento futuro na taxa básica de juros com o objetivo de desaquecer a atividade econômica.
Resumo:
Esta tese contém dois capítulos, cada um lidando com a teoria e a história dos bancos e arranjos financeiros. No capítulo 1, busca-se extender uma economia Diamond-Dybvig com monitoramento imperfeito dos saques antecipados e realizar uma comparação do bem estar social em cada uma das alocações possíveis, como proposto em Presscott and Weinberg(2003). Esse monitoramento imperfeito é implementado a partir da comunicação indireta ( através de um meio de pagamento) entre os agentes e a máquina de depósitos e saques que é um agregado do setor produtivo e financeiro. A extensão consiste em estudar alocações onde uma fração dos agentes pode explorar o monitoramento imperfeito e fraudar a alocação contratada ao consumirem mais cedo além do limite, usando múltiplos meios de pagamento. Com a punição limitada no período de consumo tardio, essa nova alocação pode ser chamada de uma alocação separadora em contraste com as alocações agregadoras onde o agente com habilidade de fraudar é bloqueado por um meio de pagamento imune a fraude, mas custoso, ou por receber consumo futuro suficiente para tornar a fraude desinteressante. A comparação de bem estar na gama de parâmetros escolhida mostra que as alocações separadoras são ótimas para as economias com menor dotação e as agregadoras para as de nível intermediário e as ricas. O capítulo termina com um possível contexto histórico para o modelo, o qual se conecta com a narrativa histórica encontrada no capítulo 2. No capítulo 2 são exploradas as propriedade quantitativas de um sistema de previsão antecedente para crises financeiras, com as váriaveis sendo escolhidas a partir de um arcabouço de ``boom and bust'' descrito mais detalhadamente no apêndice 1. As principais variáveis são: o crescimento real nos preços de imóveis e ações, o diferencial entre os juros dos títulos governamentais de 10 anos e a taxa de 3 meses no mercado inter-bancário e o crescimento nos ativos totais do setor bancário. Essas variáveis produzem uma taxa mais elevada de sinais corretos para as crises bancárias recentes (1984-2008) do que os sistemas de indicadores antecedentes comparáveis. Levar em conta um risco de base crescente ( devido à tendência de acumulação de distorções no sistema de preços relativos em expansões anteriores) também provê informação e eleva o número de sinais corretos em países que não passaram por uma expansão creditícia e nos preços de ativos tão vigorosa.
Resumo:
As concessões e as Parcerias Público-Privadas (PPP) são mecanismos cada vez mais utilizados pelo setor público para alavancar os investimentos em infraestrutura no país. Para que haja viabilidade econômica das mesmas, as suas taxas internas de retorno (TIR) apresentam-se como variáveis que precisam refletir os riscos e a realidade do negócio. O presente estudo busca analisar as taxas de retorno utilizadas para a modelagem das tarifas-teto do setor de rodovias federais frente às especificidades do seu mercado. Para tal, são seguidas três frentes: a primeira é analisar a metodologia da taxa de retorno utilizada para a modelagem das concessões mais recentes de rodovias; a segunda é estimar uma taxa de retorno a partir de pesquisa bibliográfica; e a terceira é, por meio de dados de rentabilidade de balanços de concessionárias do setor, observar se as taxas de retorno das primeiras concessões foram devidamente calculadas na época. Na dissertação, concluímos que a atual metodologia da taxa de retorno do Tesouro Nacional pode ser aprimorada, principalmente em relação aos parâmetros de grau de alavancagem e capital de terceiros, e observamos que a taxa de retorno tem se aproximado do custo de oportunidade do setor ao longo das últimas etapas de concessão. O estudo visa contribuir para o debate sobre a rentabilidade dos projetos de infraestrutura rodoviária, em meio a um período de intensos investimentos no setor.
Previsão da expedição de papelão ondulado a partir de modelos com variáveis agregadas e desagregadas
Resumo:
O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).
Resumo:
Tal como ressaltado em de Faro e Guerra (2014), tem sido frequente em nossos tribunais, sentenças judiciais determinando que, relativamente ao caso de amortizações de dívidas com prestações constantes, a popular Tabela Price seja substituída por um sistema que, fundamentado em uma particular aplicação do regime de juros simples, vem sendo cognominado de “Método de Gauss” (cf. Antonick e Assunção, 2006 e Nogueira, 2013). E isso, frize-se, mantendo-se o valor numérico da taxa de juros especificada no contrato de financiamento (usualmente, habitacional). A par de ser totalmente inadequado, como discutido em de Faro (2014c), associar o nome do grande matemático alemão Johann Carl Friedrich Gauss (1777-1855) ao procedimento em questão, sucede que ao mesmo, como a qualquer outro que seja baseado no regime de juros simples, associam-se incontornáveis inconsistências. Como já anteriormente, amplamente evidenciado em de Faro (2013b e 2014a). Tomando a Tabela Price como base de comparação, o propósito do presente trabalho é o de aprofundar a análise das deficiências do que tem sido denominado como “Método de Gauss”. Em particular, dado que as sentenças judiciais costumam não alterar os valores numéricos das taxas contratuais de juros, substituindo tão somente o regime de juros compostos, que está implícito na Tabela Price, pela peculiar variante do regime de juros simples que está subjacente ao que se chama de “Método de Gauss”, buscar-se-á considerar a questão do ponto de vista do financiador.
Resumo:
Since 2006, the Getulio Vargas Foundation (FGV) calculates a daily version of the Broad Consumer Price Index (IPCA), the official inflation index, calculated under the responsibility of the IBGE, the federal statistics agency in Brazil. Ardeo et. al. (2013) showed the importance of this indicator and how this daily information can be useful to a country that had high level of inflation. Despite the fact that this measure is a fair antecedent variable for inflation, due to some peculiarities concerning the collection period, the initial daily rating may not anticipate some effects, such as seasonal factors and the increase in prices controlled by the Brazilian Government. Hence, by taking into account the Monitor´s daily time series, this paper intends to forecast the IPCA for the first six days of data collection. The results showed up that the proposal technic improved the IPCA forecast in the beginning of data collection.
Resumo:
O objetivo deste estudo é fazer uma análise da relação entre o erro de previsão dos analistas de mercado quanto à rentabilidade das empresas listadas na BM&FBOVESPA S.A. (Bovespa) e os requerimentos de divulgação do International Financial Reporting Standards (IFRS). Isto foi feito através da regressão do erro de previsão dos analistas, utilizando a metodologia de dados em painel no ano de implantação do IFRS no Brasil, 2010, e, complementarmente em 2012, para referenciamento desses dados. Partindo desse pressuposto, foi determinado o erro de previsão das empresas listadas na Bovespa através de dados de rentabilidade (índice de lucro por ação/earnings per share) previstos e realizados, disponíveis nas bases de dados I/B/E/S Earnings Consensus Information, providos pela plataforma Thomson ONE Investment Banking e Economática Pro®, respectivamente. Os resultados obtidos indicam uma relação negativa entre o erro de previsão e o cumprimento dos requisitos de divulgação do IFRS, ou seja, quanto maior a qualidade nas informações divulgadas, menor o erro de previsão dos analistas. Portanto, esses resultados sustentam a perspectiva de que o grau de cumprimento das normas contábeis é tão ou mais importante do que as próprias normas. Adicionalmente, foi verificado que quando a empresa listada na BM&FBOVESPA é vinculada a Agência Reguladora, seu erro de previsão não é alterado. Por fim, esses resultados sugerem que é importante que haja o aprimoramento dos mecanismos de auditoria das firmas quanto ao cumprimento dos requerimentos normativos de divulgação, tais como: penalidades pela não observância da norma (enforcement), estruturas de governança corporativa e auditorias interna e externa.
Resumo:
Este trabalho tem como proposta estudar como a introdução e a utilização do pagamento de juros sobre capital próprio (JSCP) afetaram o nível de endividamento das empresas brasileiras. Para testar a hipótese que os JSCP levaram as empresas a usarem menos capital de terceiros, são utilizados matching estimators, estabelecendo como grupo de controle as empresas que não pagaram JSCP e como grupo de tratamento as que o fizeram, em uma amostra composta de 40 companhias durante os anos de 1995 até 1998. Em linha com estudos anteriores, foi encontrada evidência empírica indicando que o efeito médio do tratamento (ATE) para empresas que decidem pagar JCSP é o de reduzir o seu nível de endividamento. Contudo, não houve resultado significativo de redução de endividamento ao analisarmos o efeito médio do tratamento dentre o grupo de empresas tratadas (ATET ou ATT).
Resumo:
Os depósitos sem vencimento são uma importante fonte de funding das instituições financeiras, e apresentam um desafio na gestão dos riscos de juros e liquidez, por não apresentarem um vencimento definido. Os depositantes podem sacar o montante de suas aplicações, bem como aportar novos volumes, a qualquer tempo sem a incidência de penalidades. Atualmente não há um modelo regulatório padronizado para mensurar o risco de juros desses produtos, bem como seu requerimento de capital. No entanto, novas regulamentações tem surgido com o intuito de, dentre outras coisas, trazer certa padronização para a modelagem dos depósitos sem vencimento, aumentando a comparabilidade do perfil de risco entre instituições financeiras. Essas regulamentações aumentam a necessidade de modelos quantitativos que definam um perfil de run-off da carteira ou de evolução dessa carteira no tempo. Este estudo tem como objetivo propor uma abordagem para modelar os fluxos de caixa esperados dos depósitos de poupança que possibilitará calcular o risco de mercado e apresentar sua aplicação dentro das novas normas de requerimento de capital que estão sendo propostas. Como resultado calculamos o risco de mercado e requerimento de capital para um balanço teórico.
Resumo:
O presente trabalho tem como objetivo avaliar a capacidade preditiva de modelos econométricos de séries de tempo baseados em indicadores macroeconômicos na previsão da inflação brasileira (IPCA). Os modelos serão ajustados utilizando dados dentro da amostra e suas projeções ex-post serão acumuladas de um a doze meses à frente. As previsões serão comparadas a de modelos univariados como autoregressivo de primeira ordem - AR(1) - que nesse estudo será o benchmark escolhido. O período da amostra vai de janeiro de 2000 até agosto de 2015 para ajuste dos modelos e posterior avaliação. Ao todo foram avaliadas 1170 diferentes variáveis econômicas a cada período a ser projetado, procurando o melhor conjunto preditores para cada ponto no tempo. Utilizou-se o algoritmo Autometrics para a seleção de modelos. A comparação dos modelos foi feita através do Model Confidence Set desenvolvido por Hansen, Lunde e Nason (2010). Os resultados obtidos nesse ensaio apontam evidências de ganhos de desempenho dos modelos multivariados para períodos posteriores a 1 passo à frente.