304 resultados para Volatilidade idiossincrática
Resumo:
Este trabalho propõe o desenvolvimento de um modelo de três fatores em que os movimentos da Estrutura a Termo da Taxa de Juros em Dólar, o Cupom Cambial, são determinados por variáveis macroeconômicas observáveis. O estudo segue a metodologia elaborada por Huse (2011), que propõe um modelo baseado nos estudos de Nelson e Siegel (1987) e Diebold e Li (2006). Os fatores utilizados são: taxa de câmbio em real por dólar, spread do Credit Default Swap (CDS) Brasil de cinco anos, índice de preço de commodities, taxa de cupom cambial futura com vencimento em três meses, taxa futura de juros em dólar com cupom zero (Libor), volatilidade implícita da taxa de câmbio esperada pelo mercado de hoje até um ano, e inflação implícita de um ano no Brasil. O modelo foi capaz de explicar 95% das mudanças na estrutura a termo do cupom cambial. Aumentos no spread do CDS, na taxa de cupom cambial de três meses, na Libor, no índice de preço de commodities, e na volatilidade implícita do câmbio com vencimento em um ano estão diretamente relacionados com aumento na curva de juros em dólar. Por sua vez, a depreciação cambial tem correlação positiva com as maturidades mais curtas, até 2.5 anos, e negativo com a parte longa, até cinco anos. Choques na inflação implícita têm um pequeno impacto positivo para vencimentos curtos, mas levemente negativo para vencimentos mais longos.
Resumo:
O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.
Resumo:
Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.
Resumo:
Este trabalho estuda se existe impacto na volatilidade dos mercados de ações em torno das eleições nacionais nos países da OCDE e nos países em Desenvolvimento. Ao mesmo tempo, pretende, através de variáveis explicativas, descobrir os fatores responsáveis por esse impacto. Foi descoberta evidência que o impacto das eleições na volatilidade dos mercados de ações é maior nos países em Desenvolvimento. Enquanto as eleições antecipadas, a mudança na orientação política e o tamanho da população foram os factores que explicaram o aumento da volatilidade nos países da OCDE, o nível democrático, número de partidos da coligação governamental e a idade dos mercados foram os factores explicativos para os países em Desenvolvimento.
Resumo:
O objetivo deste trabalho é propor a utilização do arcabouço teórico das opções reais e a posterior aplicação do modelo binomial na avaliação de projetos relacionados à exploração e produção de petróleo, tendo em vista a flexibilidade gerencial, os riscos e as incertezas técnicas e de mercado que norteiam o setor petrolífero upstream. Ademais, a aplicação do modelo proposto capta o papel crucial da volatilidade do preço do petróleo na avaliação da decisão de investimento e revela a existência dos custos irrecuperáveis extremos decorrentes do ativo real, neste caso, a unidade marítima de petróleo. Assim, com o intuito de prolongar o ciclo de produção de unidade marítima de petróleo com características preestabelecidas, propõe-se a avaliação econômica de duas alternativas tecnológicas para a extensão de vida útil da plataforma marítima objeto de estudo, sendo estas alternativas tratadas como opções de expansão. As alternativas propostas são duas: o afretamento da UMS (Unidade de Manutenção e Segurança) acoplada à plataforma e a docagem da plataforma a partir da desmobilização, isto é, o descomissionamento, e envio da plataforma ao estaleiro. Na aplicação da primeira opção, a UMS se configura em uma embarcação equipada com toda a estrutura necessária para a realização de serviço de manutenção e revitalização, sem que ocorra interrupção da produção de petróleo. Por outro lado, a opção de descomissionamento é desprovida de receita até o retorno da plataforma do estaleiro. No que tange à metodologia do presente trabalho, o modelo binomial com probabilidades de risco neutro é aplicado considerando a receita proveniente da produção de petróleo de uma plataforma marítima com sistema de produção flutuante com 14 poços, sendo 10 produtores e 4 injetores e sustentada por 8 linhas de ancoragem. Também é definida a volatilidade do projeto como sendo a volatilidade do preço do petróleo. Por fim, as opções de expansão podem ser exercidas a qualquer momento antes da data de expiração das opções, data esta coincidente para ambas as opções e referente ao término de contrato de afretamento da UMS, que corresponde ao período de cinco anos. Neste período de cinco anos, as duas alternativas são exercidas a partir do primeiro ano, com receitas e custos distintos em virtude das especificidades decorrentes das alternativas tecnológicas propostas. A partir da aplicação do modelo binomial com probabilidades de risco neutro sob o enfoque das opções reais, as duas alternativas tecnológicas são tratadas como opções americanas na avaliação econômica da revitalização e manutenção da plataforma marítima. Também realiza-se a análise tradicional do VPL para as duas alternativas. As duas análises apontam para a escolha da UMS como alternativa ótima de expansão da vida útil da plataforma. Ademais, a análise sob o enfoque das opções reais capta um valor adicional em ambas as alternativas tecnológicas, fruto das características inerentes à indústria petrolífera. Quanto à estrutura do trabalho em questão se divide em cinco capítulos: introdução, referencial teórico, metodologia, apresentação dos resultados e as considerações finais.
Resumo:
O objetivo desta dissertação é investigar o mercado secundário de debêntures do Brasil, para responder quais as características dos títulos afetam sua liquidez e quais as características de liquidez podem ser observadas nas debêntures brasileiras. Cinco medidas de liquidez foram utilizadas: número de dias que ocorreram transações, número de transações, volume relativo de transações em relação ao montante emitido, diferença entre os preços máximos e mínimos transacionados e a volatilidade do rendimento. Para cada medida de liquidez, verificou-se a influência de oito características das debêntures: rating, volume emitido, prazo de vencimento, segmento do emissor, listagem em bolsa, idade da emissão e tipo de emissão (incentivada e sob instrução de esforços restritos). Foram coletadas 998 emissões públicas de debêntures e suas respectivas transações até 18 meses após a emissão, no período de janeiro de 2007 a agosto de 2015. A base de dados, que somou 53.085 observações, fundamentou-se nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures. Como resultado, verificou-se que o volume da emissão, tipo de emissão (incentivada ou restrita) e determinados segmentos são variáveis de liquidez. Adicionalmente constatou-se que, controlando os segmentos dos emissores, debêntures com maior volume emitido são mais líquidas. E mais, a relação entre idade e liquidez não é clara e a diferença entre preços máximos e mínimos das transações não é uma medida de liquidez apropriada. Por fim, verificou-se que a grande concentração de títulos emitidos sob esforços restritos reduziu a liquidez do mercado em comparação com o estudo de Sheng e Saito (2008), apesar do aumento do volume emitido no período. Em contrapartida, a emissão de títulos incentivados elevou o nível de transações no mercado secundário.
Resumo:
O presente trabalho analisa o grau de sofisticação do Investidor Individual, subclasse da Categoria “Pessoa Física”, na negociação de produtos de renda variável no período compreendido entre Janeiro de 2006 e Dezembro de 2014. Através da análise de dados diários dos fluxos líquidos de investimentos, encontramos evidências que reforçam a hipótese de baixa sofisticação do Investidor Individual, no que diz respeito à diferença de atuação, de maneira agregada, entre ele e o investidor tido como mais qualificado (i.e., Investidor Estrangeiro), além de confirmarmos o ditado popular de que ele “Compra no Topo e Vende no Fundo”. Adicionalmente, encontramos evidência de causalidade entre, de um lado, a evolução do fluxo financeiro (tanto na compra quanto na venda), e do outro, variáveis como Retorno e Volatilidade, no sentido do primeiro causar estes. Os Testes de Causalidade de Granger e Impulso Resposta corroboram o indicado nas regressões; revela-se adicionalmente que um choque positivo na Volatilidade impacta negativamente as variáveis dependentes, de maneira crescente, por até 21 dias de pregão.
Resumo:
Os mercados de derivativos são vistos com muita desconfiança por inúmeras pessoas. O trabalho analisa o efeito da introdução de opções sobre ações no mercado brasileiro buscando identificar uma outra justificativa para a existência destes mercados: a alteração no nível de risco dos ativos objetos destas opções. A evidência empírica encontrada neste mercado está de acordo com os resultados obtidos em outros mercados - a introdução de opções é benéfica para o investidor posto que reduz a volatilidade do ativo objeto. Existe também uma tênue indicação de que a volatilidade se torna mais estocástica com a introdução das opções.
Resumo:
Nesta dissertação é proposta uma estrutura de trading para analisar o desempenho da estratégia de Stop-Loss em termos de ganho de valor. Fundamentada no paper de Kaminsky e Lo (2014), a regra consiste em alternar de um ativo de alta volatilidade para um ativo livre de risco baseado em uma regra binária de Stop-Loss. Foram encontrados resultados nominais positivos, redução de volatilidade e consequente aumento do coeficiente retorno/volatilidade.
Resumo:
Utilizo dados semanais para investigar a lucratividade de estratégias de momentum no mercado de câmbio baseadas em dois diferentes métodos de extração da tendência, possivelmente não linear. Comparo a performance com as tradicionais regras de médias móveis, método linear bastante utilizado pelos profissionais do mercado. Eu encontro que o desempenho de todas as estratégias é extremamente sensível à escolha da moeda, às defasagens utilizadas e ao critério de avaliação escolhido. A despeito disso, as moedas dos países do G10 apresentam resultados médios melhores com a utilização dos métodos não lineares, enquanto as moedas dos países emergentes apresentam resultados mistos. Adoto também uma metodologia para o gerenciamento do risco das estratégias de momentum, visando minimizar as “grandes perdas”. Ela tem êxito em diminuir as perdas máximas semanais, o desvio-padrão, a assimetria e curtose para a maior parte das moedas em ambas as estratégias. Quanto ao desempenho, as operações baseadas no filtro HP com gestão do risco apresentam retornos e índices de Sharpe maiores para cerca de 70% das estratégias, enquanto as baseadas na regressão não paramétrica apresentam resultados melhores para cerca de 60% das estratégias.
Resumo:
Esse trabalho avalia a influência das intervenções do Banco Central do Brasil (BCB) sobre o mercado de moeda estrangeira entre outubro de 2011 e dezembro de 2014. Utilizando dados intradiários para as cotações da taxa de câmbio e para as intervenções, são analisados, através da metodologia de estudo de eventos, os impactos das intervenções sobre o nível e volatilidade da taxa de câmbio. Os resultados mostram que as intervenções, quando não são esperadas pelo mercado, influenciam a taxa de câmbio e o efeito varia com o tamanho da intervenção. Por outro lado, não há evidências claras de que a atuação do BCB no mercado de câmbio contribui para reduzir a volatilidade cambial no curto prazo.
Resumo:
Internet applications such as media streaming, collaborative computing and massive multiplayer are on the rise,. This leads to the need for multicast communication, but unfortunately group communications support based on IP multicast has not been widely adopted due to a combination of technical and non-technical problems. Therefore, a number of different application-layer multicast schemes have been proposed in recent literature to overcome the drawbacks. In addition, these applications often behave as both providers and clients of services, being called peer-topeer applications, and where participants come and go very dynamically. Thus, servercentric architectures for membership management have well-known problems related to scalability and fault-tolerance, and even peer-to-peer traditional solutions need to have some mechanism that takes into account member's volatility. The idea of location awareness distributes the participants in the overlay network according to their proximity in the underlying network allowing a better performance. Given this context, this thesis proposes an application layer multicast protocol, called LAALM, which takes into account the actual network topology in the assembly process of the overlay network. The membership algorithm uses a new metric, IPXY, to provide location awareness through the processing of local information, and it was implemented using a distributed shared and bi-directional tree. The algorithm also has a sub-optimal heuristic to minimize the cost of membership process. The protocol has been evaluated in two ways. First, through an own simulator developed in this work, where we evaluated the quality of distribution tree by metrics such as outdegree and path length. Second, reallife scenarios were built in the ns-3 network simulator where we evaluated the network protocol performance by metrics such as stress, stretch, time to first packet and reconfiguration group time
Resumo:
Anhydrous ethanol is used in chemical, pharmaceutical and fuel industries. However, current processes for obtaining it involve high cost, high energy demand and use of toxic and pollutant solvents. This problem occurs due to the formation of an azeotropic mixture of ethanol + water, which does not allow the complete separation by conventional methods such as simple distillation. As an alternative to currently used processes, this study proposes the use of ionic liquids as solvents in extractive distillation. These are organic salts which are liquids at low temperatures (under 373,15 K). They exhibit characteristics such as low volatility (almost zero/ low vapor ), thermal stability and low corrosiveness, which make them interesting for applications such as catalysts and as entrainers. In this work, experimental data for the vapor pressure of pure ethanol and water in the pressure range of 20 to 101 kPa were obtained as well as for vapor-liquid equilibrium (VLE) of the system ethanol + water at atmospheric pressure; and equilibrium data of ethanol + water + 2-HDEAA (2- hydroxydiethanolamine acetate) at strategic points in the diagram. The device used for these experiments was the Fischer ebulliometer, together with density measurements to determine phase compositions. The experimental data were consistent with literature data and presented thermodynamic consistency, thus the methodology was properly validated. The results were favorable, with the increase of ethanol concentration in the vapor phase, but the increase was not shown to be pronounced. The predictive model COSMO-SAC (COnductor-like Screening MOdels Segment Activity Coefficient) proposed by Lin & Sandler (2002) was studied for calculations to predict vapor-liquid equilibrium of systems ethanol + water + ionic liquids at atmospheric pressure. This is an alternative for predicting phase equilibrium, especially for substances of recent interest, such as ionic liquids. This is so because no experimental data nor any parameters of functional groups (as in the UNIFAC method) are needed
Resumo:
Researches in Requirements Engineering have been growing in the latest few years. Researchers are concerned with a set of open issues such as: communication between several user profiles involved in software engineering; scope definition; volatility and traceability issues. To cope with these issues a set of works are concentrated in (i) defining processes to collect client s specifications in order to solve scope issues; (ii) defining models to represent requirements to address communication and traceability issues; and (iii) working on mechanisms and processes to be applied to requirements modeling in order to facilitate requirements evolution and maintenance, addressing volatility and traceability issues. We propose an iterative Model-Driven process to solve these issues, based on a double layered CIM to communicate requirements related knowledge to a wider amount of stakeholders. We also present a tool to help requirements engineer through the RE process. Finally we present a case study to illustrate the process and tool s benefits and usage