1000 resultados para Previsão
Resumo:
O objetivo deste trabalho é investigar as motivações e a dinâmica no uso de derivativos de moedas por parte de empresas não-financeiras brasileiras, em contratos de balcão, a partir de um banco de dados único, que contém operações efetivamente contratadas por estas empresas junto a um grande banco internacional de 2003 a 2008. Embora pesquisas em outros países apontem para a influência de um componente especulativo (resultado de uma tentativa de previsão de mercado) nas decisões dos gestores, o efetivo impacto disto nas decisões da empresa ainda é pouco conhecido, bem como suas implicações para a gestão financeira de riscos e governança corporativa. Os resultados do presente estudo revelam que existem fortes indícios de que as decisões de tomada e desmonte de posições em derivativos sejam bastante influenciadas por uma visão especulativa. Mais ainda, tais situações são difíceis de serem identificadas a priori por confundirem-se com as operações destinadas à redução de risco da companhia.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
O objetivo deste trabalho é examinar a hipótese de que a estrutura a termo das taxas de juros é um bom indicador antecedente das trajetórias futuras da inflação e da atividade econômica, especificamente para o caso brasileiro, no período de 1999 a 2006. As evidências empíricas, examinadas através de regressões da inclinação da curva de juros realizadas contra a variação futura da produção industrial (IBGE) apresentaram resultados pouco robustos, porém coeficientes significativos a 5% (para prazos de projeção de 3 a 18 meses). Quando controlada para outras variáveis explicativas, manteve seu poder de previsão, sugerindo que há conteúdo informacional relevante na inclinação da curva de juros para previsão da produção industrial futura. As regressões realizadas contra a variação futura do PIB a preços constantes (IBGE) apresentaram resultados bastante fracos e coeficientes pouco significativos. Por outro lado, os resultados empíricos das regressões do spread da curva de juros contra a variação futura da inflação (IPCA) mostraram-se robustos, para todas as especificações de diferencial de curva de juros. Novamente, quando controlada para outras variáveis explicativas, manteve seu poder de previsão. As conclusões deste trabalho permitem sugerir aos bancos centrais estar atentos à informação contida na estrutura a termo de juros, utilizando-a como mais um input de informação nos modelos utilizados pela autoridade monetária para suas decisões de política monetária.
Resumo:
Diante do inédito momento vivido pela economia brasileira e, especialmente, pela bolsa de valores nacional, principalmente após a obtenção do grau de investimento pelo Brasil, este trabalho aborda um tema que ganhou um enorme espaço na mídia atual que é a análise técnica. A partir de uma amostra de 37 ações listadas na Bolsa de Valores de São Paulo no período compreendido entre janeiro de 1999 e agosto de 2009, este trabalho examina se a análise técnica agrega valor 'as decisões de investimentos. Através da elaboração de intervalos de confiança, construídos através da técnica de Bootstrap de inferência amostral, e consistentes com a hipótese nula de eficiência de mercado na sua forma fraca, foram testados 4 sistemas técnicos de trading. Mais especificamente, obteve-se os resultados de cada sistema aplicado às series originais dos ativos. Então, comparou-se esses resultados com a média dos resultados obtidos quando os mesmos sistemas foram aplicados a 1000 séries simuladas, segundo um random walk, de cada ativo. Caso os mercados sejam eficientes em sua forma fraca, não haveria nenhuma razão para se encontrar estratégias com retornos positivos, baseando-se apenas nos valores históricos dos ativos. Ou seja, não haveria razão para os resultados das séries originais serem maiores que os das séries simuladas. Os resultados empíricos encontrados sugeriram que os sistemas testados não foram capazes de antecipar o futuro utilizando-se apenas de dados passados. Porém, alguns deles geraram retornos expressivos e só foram superados pelas séries simuladas em aproximadamente 25% da amostra, indicando que a análise técnica tem sim seu valor.
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
A monografia tem como objetivo analisar e tentar mensurar a Credibilidade do Banco Central do Brasil através da formação das expectativas inflacionárias dos agentes no regime monetário de metas de inflação. A credibilidade da autoridade monetária é um dos pilares do atual regime, diminuindo o custo de desinflação e ajudando a conter a inflação em patamares baixos. A credibilidade só pode ser adquirida gradativamente com um histórico de comprometimento de combate à inflação e autonomia na condução da política monetária. Um dos grandes problemas práticos encontrados atualmente é a mensuração quantitativa da credibilidade da autoridade monetária. O estudo tanta mensurar a credibilidade através do peso da meta central da inflação na formação da expectativa inflacionária, ou seja, quanto mais crível for o Banco Central, maior o peso da meta. O estudo se baseia na hipótese central de que as expectativas da meta de inflação no Brasil ainda apresentam um efeito da indexação da inflação passada que vem diminuindo com o ganho de credibilidade do Banco Central, ao mesmo tempo em que a meta vem ganhando significância. Testes econométricos foram realizados de forma a empiricamente modelar a formação das expectativas 12 meses à frente no regime de metas de inflação contemplando os efeitos históricos, dados de mercado, desvalorização cambial e a meta central do regime. Os resultados empíricos mostram que os fatores presentes na previsão da inflação vêm mudando ao longo do regime, mas os participantes de mercado levam em consideração o IPCA acumulado nos últimos três meses, a desvalorização cambial e a meta de inflação. O estudo mostra que mesmo com as diversas crises sofridas ao longo do regime, a significância da meta vem aumentando e o peso da inércia vem diminuindo ao longo ao tempo, representando um ganho de credibilidade do Banco Central brasileiro no regime de metas de inflação.
Resumo:
Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.
Resumo:
O objetivo do trabalho é estudar a relação entre “surpresas” na política monetária, reveladas pelas mudanças não-esperadas na taxa de juros de curto prazo (Selic) e a estrutura a termo da curva de juros para o caso brasileiro. Será testado o efeito de movimentos não-esperados da política monetária sobre a estrutura a termo de juros, utilizando como medida de surpresa da política monetária o erro de previsão do mercado para a taxa de juros estabelecida pela autoridade monetária. O trabalho está estruturado em 4 capítulos, além desta introdução. A introdução consiste no detalhamento da importância do problema e como o trabalho está organizado. O capítulo 1 compreende a revisão da literatura em duas partes: a parte 1 realiza uma síntese de alguns trabalhos sobre o tema e a parte subseqüente apresenta alguns resultados empíricos já conhecidos. No capítulo 2 será estudado o caso brasileiro, e definida a metodologia e hipóteses analisadas. O terceiro capítulo consiste nas estimações e resultados. Por último, o capítulo 4 disserta a respeito das conclusões obtidas, limitações do trabalho e questões para futuras pesquisas.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).
Resumo:
Ao longo da história da humanidade, vários esforços foram feitos na tentativa de prever o futuro. Isto ocorreu como uma forma de antever possíveis situações e também de estabelecer mudanças de objetivos devido às alternativas apresentadas. Inúmeros questionamentos surgiram diante deste processo e inegavelmente estavam centrados no quesito “incerteza” dos eventos. E é exatamente neste contexto que surge a técnica prospectiva, que tem o propósito de analisar as incertezas e refletir sobre as suas alternativas de ação no presente e trata de aprimorar o entendimento de como o futuro pode acontecer. As opções de futuro se materializam através da sua descrição ordenada e consistente, ou seja, através de um cenário que é a delimitação de uma situação futura e da seqüência dos acontecimentos que permitem passar da situação de origem a essa situação futura. Assim, o objetivo desse trabalho é realizar um estudo prospectivo e longo prazo sobre a demanda de aços planos no Brasil, tendo em vista a importância da indústria siderúrgica brasileira e às incertezas a ela relacionadas e utiliza a análise prospectiva na elaboração de cenários passíveis de ocorrência. Portanto, trata, inicialmente, de aspectos conceituais da visão prospectiva e sua evolução histórica, abordando e focalizando a técnica proposta por Michel Godet, porém utilizando o método PROSPEX de Eduardo Marques para a elaboração de cenários da demanda de aços planos no Brasil. Diante disso, foram identificados dois cenários qualitativos contrastantes e posteriormente submetidos a um modelo macroeconômico de projeção, o Projetar_e, que, devidamente calibrado, indicou quantitativamente o nível de diversas variáveis econômicas e o desempenho futuro do Produto Interno Bruto (PIB). Como resultado, concluímos que há uma forte relação de causalidade entre o PIB e o consumo de aços planos e identificamos uma equação de regressão linear que permite a projeção da referida demanda. As conclusões ainda demonstram que os resultados dos cenários quantitativos identificados neste trabalho apresentam diferenças significativas em relação às estimativas efetuadas pelo Instituto Brasileiro de Siderurgia (IBS), cabendo, portanto uma reflexão sobre a plausibilidade da utilização de cenários de caráter projetivos para estudos de longo vii prazo, baseados em dados históricos que simplesmente extrapolam para o futuro a imagem do passado. Finalmente, recomendamos pesquisas adicionais para a formalização da integração de métodos qualitativos com métodos quantitativos de elaboração de cenários e a utilização de estudos prospectivos nas empresas participantes da cadeia de valor que utilizam o aço plano como matéria-prima essencial nos seus processos produtivos.
Resumo:
Agressão de nefastos efeitos, o abuso sexual infantil – ASI - tem acompanhado a humanidade, independentemente do poderio econômico, cultura, raça ou credo, sendo que a aparente evolução da civilização não tem apresentado como corolário sua diminuição. A missão de enfrentar esta complexa realidade foi incumbida ao Poder Judiciário e órgãos afins. Apesar dos avanços das normas concernentes à tutela dos direitos das crianças e adolescentes, na prática pouco se tem feito para sua efetivação, focando-se apenas na punição do agressor, em razão da ausência de normas instrumentais específicas e de clareza na definição e compreensão do que constitui delito de natureza sexual, ensejando a chamada violência institucional. Evidência disso são os métodos alternativos implementados aleatoriamente pelo país, elaborados pelos atores envolvidos no atendimento institucional de vítimas de ASI e seus familiares, notadamente o Depoimento Sem Dano, formatado para a inquirição de crianças e adolescentes em Juízo, com intermédio de profissional habilitado, e previsão de gravação, para posterior análise no processo. Dentre as experiências, o Depoimento Sem Dano tem se destacado, suscitando reconhecimento e questionamentos, atualmente incluso em projeto de lei no Senado. Não é de hoje a tentativa de normatização dessa prática instituída no Rio Grande do Sul e objeto de projetos pilotos em alguns outros Estados, esbarrando em questões controversas, fazendo-se essencial uma análise crítica do método. Por envolver tal método, como a grande maioria das experiências alternativas realizadas no atendimento dos casos de ASI, a interdisciplinaridade, principalmente entre Direito e Psicologia, de relevo um estudo de como deve ocorrer este imbricamento no âmbito forense. Por fim, a par do Depoimento Sem Dano, dentre vários projetos, pinçaram-se três para breve estudo, quais sejam, o projeto Mãos que Acolhem – transposição do método Depoimento sem Dano para a Delegacia de Polícia, os Centros de Defesa da Criança – CACs, locais em que se centralizam todo tipo de atendimento às crianças e adolescentes vítimas de abuso sexual, e a Unificação das Competências das Varas da Infância e Juventude e Crimes contra Crianças e Adolescentes, para que os casos sejam decididos de forma coesa e eficaz. Tais projetos refletem o esforço dos atores envolvidos na humanização da Justiça, especialmente em relação àqueles que mais dela necessitam, as crianças e adolescentes.
Resumo:
Utilizando dados financeiros brasileiros do Ibovespa, testa-se a validade dos modelos de valor presente (MVP) no mercado de ações. Estes modelos relacionam o preço de uma ação ao seu fluxo de caixa futuro esperado (dividendos) trazido a valor presente utilizando uma taxa de desconto constante ou variante ao longo do tempo. Associada a estes modelos está a questão da previsibilidade dos retornos num contexto de expectativas racionais. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Autorregressões Vetoriais. Os resultados empíricos corroboram, em grande medida, o MVP para o Ibovespa brasileiro, pois há uma igualdade estatística entre a previsão ótima do mercado para o spread do equilíbrio de longo prazo e seus valores observados.