90 resultados para Estimação das componentes de variância


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo busca analisar a adoção de técnicas de imunização de carteiras para a gestão dos hedges cambiais no ambiente corporativo de uma Trading Company, utilizando de forma pioneira a análise de componentes principais aplicada à curva cambial como uma alternativa aos modelos usualmente utilizados de hedge por exposição gerada (back-to-back) e duration hedge que mostram algumas deficiências em sua gestão. Para exemplificar a efetividade da estratégia de imunização foi gerada aleatoriamente uma carteira de exposição cambial com data base de 02/01/2013 composta por 200 transações com valores entre US$5 milhões e -US$10 milhões, para vencimentos também aleatórios entre 03/06/2013 e 01/12/2014 com vencimento no primeiro dia útil de cada mês. Os resultados da Análise de Componente Principais mostraram que para os períodos analisados de 1, 2 e 3 anos, os três primeiros componentes explicam respectivamente 97.17%, 97.90% e 97.53% da variabilidade da curva cambial. No que diz respeito à imunização da carteira, a estratégia que utiliza a metodologia de componentes principais mostrou-se altamente efetiva, quando comparadas à estratégia back-to-back, de forma a permitir a sua aplicabilidade no ambiente corporativo. A estratégia de hedge utilizando-se da Análise de Componentes Principais para 1, 2 e 3 anos e pelo Duration Hedge apresentaram uma efetividade de, respectivamente, 101.3%, 99.47%, 97.64% e 99.24% para o período analisado e uma amplitude na efetividade diária de 8.62%, 7.79%, 8.45% e 19.21% o que indica uma superioridade da estratégia em relação ao Duration Hedge. Os resultados obtidos nesse trabalho são de grande relevância para a gestão de risco corporativo no mercado local.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por definição as empresas startups estão expostas a mais riscos e vulnerabilidades que empresas maduras e já estabelecidas no mercado. O objetivo do presente estudo é identificar, aplicar e testar uma possível metodologia para calcular prêmio de risco adicional para startups. Para tanto este trabalho desenvolve um estudo de caso no qual a conhecida metodologia para cálculo de prêmio de risco de tamanho da Morningstar é aplicada a uma startup americana. A aderência da metodologia proposta neste estudo é testada pela metodologia do filtro de Kalman, que calcula o prêmio de risco por tamanho variando ao longo do tempo. Os resultados encontrados são similares em ambas as metodologias. De forma que é possível concluir que a metodologia da Morningstar, quando aplicada para calcular prêmio por tamanho variante ao longo do tempo é robusta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho foi, face ao grau de integração da economia brasileira, testar o poder explicativo do Modelo Goldman Sachs sobre os retornos esperados por um investidor estrangeiro no mercado nacional, ao longo do período 2004-2013. Em um primeiro momento, foi testado o grau de integração da economia brasileira para o período 2004-2013, buscando entender o contexto em que o Modelo Goldman Sachs foi empregado. Posteriormente, para o teste do modelo, calcularam-se os betas dos fatores de risco dos ativos analisados (risco de mercado e risco país) e procedeu-se à regressão com dados em painel dos retornos esperados sobre os betas desses ativos. Verificou-se que o risco país não se mostrou estatisticamente significante para a explicação dos retornos esperados, o que indica que é adicionado de maneira ad hoc pelos praticantes de mercado para o cálculo do custo de capital próprio de acordo com o Modelo Goldman Sachs. Assim, embora haja evidências de uma relação positiva e significante entre risco sistemático e retorno, os resultados para o risco país demonstram que o Modelo Goldman Sachs não se mostrou satisfatório para a explicação dos retornos esperados no mercado brasileiro ao longo dos últimos dez anos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos comprovam que determinados componentes exercem uma função fundamental para o desempenho do produto final, por exemplo o microprocessador Intel e o revestimento Teflon. Assim como os exemplos, alguns destes componentes de produtos possuem marca, as quais tem notoriedade para o consumidor final. Ou seja, o fabricante de componente começa a ter reconhecimento de marca na mente do consumidor. Devido a esta tendência de mercado, este estudo verificará inicialmente, os fatores que determinam a lembrança de marca de componentes por parte do consumidor final. E posteriormente, analisará as influências desta percepção de marca, e do reconhecimento dos benefícios do componente para a decisão de compra do consumidor. Para tanto, o estudo propõe o desenvolvimento de um modelo conceitual, o qual será testado empiricamente. Este modelo tem como base o modelo de decisão de compra do consumidor para produto final, com sugeridas adaptações para a situação de marcas de componentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O corpo de teorias referente à Capacidade Absortiva versa sobre a gestão da informação. Foi identificado na literatura que esse campo de estudo evoluiu com base especialmente em modelos baseados em processos. Visando facilitar o uso dos conceitos advindos dessa teoria pela aplicação da variedade de técnicas de análise de dados disponíveis, identificou-se a necessidade de propor uma escala para os construtos em modelo de variância. Dentre os vários construtos, optamos pela proposição da operacionalização de Reconhecimento de Valor, o primeiro construto do grupo de teorias sobre Capacidade Absortiva. Este estudo dispõe de três capítulos principais apresentados em formato de artigos acadêmicos, o primeiro dos quais visando à proposição de uma escala para o construto Reconhecimento de Valor, o segundo objetivando a análise de sua formação por meio de seus antecedentes e o terceiro que o testa de forma integrada com outros construtos da Capacidade Absortiva. Espera-se que este trabalho contribua para o entendimento teórico da teoria de Capacidade Absortiva, permita o desenvolvimento de outras pesquisas aplicando o construto desenvolvido e que facilite o processo gerencial na adoção e gestão de procedimentos que efetivamente capacitem a empresa no Reconhecimento de Valor quando diante de uma oportunidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os Fundos de Investimento Imobiliários – FIIs – vem ganhando destaque como alternativas de investimento no Brasil. Segundo dados da BM&FBovespa, a média diária de volume negociado aumentou de R$600 mil em 2009 para R$27 milhões em 2014. No entanto, após o IFIX – Indíce de FIIs - atingir seu maior patamar histórico em Janeiro de 2013, este passou apresentar performance negativa, ao mesmo tempo que se observou um processo de elevação da curva de juros. O presente trabalho visa analisar o impacto de movimentos da curva de juros no desempenho dos FIIs. De forma a limitar as divergências encontradas na literatura internacional quanto à taxa de juros utilizada como proxy para a avaliação, utiliza-se da Análise de Componentes Principais para reduzir o número de variáveis, restringindo-se a uma variável de nível e uma de inclinação. Os resultados indicam que aumento no nível da curva de juros tem um impacto negativo no desempenho dos FIIs, ao passo que aumenta na inclinação também tem impacto negativo, mas não de forma relevante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste artigo são apresentadas duas medidas de desempenho de fundos mútuos de investimento baseadas nos índices de Sharpe Generalizado e de Sortino, que são ajustadas para o risco de estimação através de intervalos de confiança gerados por meio de procedimentos de bootstrap. O uso das medidas propostas é útil para fundos de investimento que empregam gestão ativa, ou seja, que tenham como objetivo superar um determinado índice de referência. Os índices propostos neste artigo serão comparados com os índices de Sharpe Generalizado e de Sortino originais e com o duplo índice de Sharpe de Vinod e Morey (1999), com uma amostra de 100 fundos do mercado brasileiro no período de 2004, onde serão analisados os resultados de ranqueamento de diferentes fundos conforme seu desempenho. Os resultados dos ranqueamentos e da correlação de Spearman mostram que há grandes mudanças de ranqueamento quando se utiliza as medidas propostas em comparação com as medidas já existentes, principalmente quando se emprega o boostrap studentizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação foi estimar a demanda de tratores agrícolas para o mercado brasileiro no triênio 2016-2018, utilizando-se para isto de técnicas de econometria de séries temporais, neste caso, modelos univariados da classe ARIMA e SARIMA e ou multivariados SARIMAX. Justifica-se esta pesquisa quando se observa a indústria de máquinas agrícolas no Brasil, dados os ciclos econômicos e outros fatores exógenos aos fundamentos econômicos da demanda, onde esta enfrenta muitos desafios. Dentre estes, a estimação de demanda se destaca, pois exerce forte impacto, por exemplo, no planejamento e custo de produção de curto e médio prazo, níveis de inventários, na relação com fornecedores de materiais e de mão de obra local, e por consequência na geração de valor para o acionista. Durante a fase de revisão bibliográfica foram encontrados vários trabalhos científicos que abordam o agronegócio e suas diversas áreas de atuação, porém, não foram encontrados trabalhos científicos publicados no Brasil que abordassem a previsão da demanda de tratores agrícolas no Brasil, o que serviu de motivação para agregar conhecimento à academia e valor ao mercado através deste. Concluiu-se, após testes realizados com diversos modelos que estão dispostos no texto e apêndices, que o modelo univariado SARIMA (15,1,1) (1,1,1) cumpriu as premissas estabelecidas nos objetivos específicos para escolha do modelo que melhor se ajusta aos dados, e foi escolhido então, como o modelo para estimação da demanda de tratores agrícolas no Brasil. Os resultados desta pesquisa apontam para uma demanda de tratores agrícolas no Brasil oscilando entre 46.000 e 49.000 unidades ano entre os anos de 2016 e 2018.