940 resultados para Clusters de Volatilidade
Resumo:
O objetivo deste trabalho foi tentar entender a interação entre concentração geográfica de empresas, competitividade e tecnologia no cluster calçadista de Franca, importante pólo produtor calçadista no país, responsável por aproximadamente 10% do total da produção calçadista brasileira. Utiliza-se o conceito de cluster desenvolvido por Porter (1990). É apresentado um modelo para explicar o surgimento e desenvolvimento dos clusters, procurando validá-lo no cluster calçadista de Franca. A principal hipótese do modelo é a de que uma inovação revolucionária no processo, combinada com condições locais específicas, pode originar um cluster. Após o nascimento, o modelo afirma que o cluster passa por fases como embrionária, crescimento, maturidade e pós-maturidade, cada uma com características distintas e peculiares. Utilizou-se uma amostra de 9 empresas e setores correlatos representativos e a principal contribuição desta dissertação foi a constatação de que o cluster de Franca, teve trajetória bastante aderente ao modelo. No momento, o cluster está em sua fase de maturidade e devem ser feitas políticas e ações coordenadas para evitar o declínio ou pós-maturidade do cluster. Como resultado também, foi feita a avaliação do cluster de Franca segundo o modelo do diamante de Porter (1990) para caracterizar os principais pilares para a manutenção da vantagem competitiva as condições dos fatores, condições da demanda, setores correlatos e de apoio e estratégia, estrutura e rivalidade das empresas foram avaliadas baseado em fontes secundárias e primárias. Finalmente são propostas algumas ações e políticas no sentido de incrementar a competitividade do cluster calçadista de Franca, pela sua importância econômica nacional e principalmente pelo impacto na economia da cidade de Franca, por praticamente dependente exclusivamente do calçado. Palavra-chave: Cluster, Modelo de Evolução, Calçados
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
As intervenções efetuadas pelo Banco Central do Brasil têm sido freqüentes no mercado de câmbio à vista nestes últimos anos. Essas intervenções geram incremento das reservas internacionais do país, mas podem gerar também, entre outros, efeitos sobre o ritmo da apreciação da moeda nacional e também sobre a volatilidade do mercado. O presente trabalho buscou identificar se tais intervenções resultaram em alterações da volatilidade do mercado, concluindo que houve efeito de redução desta volatilidade em apenas uma faixa dentro do universo do volume de compras realizadas pelo Banco Central. Secundariamente buscou-se observar qual foi a demanda dos agentes de mercado na contratação de instrumentos de proteção (hedge) cambial em resposta dessas alterações da volatilidade. Não foi verificado qualquer efeito acerca da busca de proteção. A análise foi baseada no período compreendido entre janeiro de 2001 e maio de 2007, sendo que a identificação do efeito das intervenções sobre a volatilidade do mercado utilizou o modelo GARCH, e a análise subseqüente, de influência sobre a busca de proteção, foi baseada no modelo SARIMA.
Resumo:
Este estudo analisa como a classe de acionistas afeta o valor das empresas brasileiras listadas na bolsa de valores no ponto de vista da governança corporativa. O trabalho examina a interação entre o valor das empresas e cinco tipos de concentrações acionárias comumente presente em mercados emergentes: famílias, agentes públicos, investidores estrangeiros, executivos e investidores financeiros nacionais. A análise empírica demonstra que o mix e a concentração de participação acionária afeta significativamente o valor das empresas. Utilizando uma compilação única de dados em painel de 2004 a 2008, a presente pesquisa também desenvolve hipóteses sobre o efeito da participação em grupos econômicos para o valor das empresas. A investigação encontra evidências de que, apesar de sua importância para o desenvolvimento de empresas brasileiras, o capital familiar, instituições públicas, e investidores estrangeiros estão cedendo lugar a monitores mais especializados e menos concentrados, como executivos e instituições financeiras nacionais. Estes resultados indicam que a governança corporativa no Brasil pode estar alcançando níveis de maturidade mais elevados. Adicionalmente, apesar de não haver indicação da existência de correlação entre a participação em grupos econômicos e o valor das empresas, os resultados indicam que a presença de um tipo específico de acionista em uma empresa do grupo facilita investimentos futuros desta classe de acionista em outras empresas do mesmo grupo, sinalizando que os interesses acionários são provavelmente perpetuados dentro de uma mesma rede de empresas. Finalmente, a pesquisa demonstra que enquanto o capital familiar prefere investir em empresas com ativa mobilidade do capital, investidores internacionais e instituições públicas procuram investimentos em equity com menor mobilidade de capital, o que lhes garante mais transparência com relação ao uso dos recursos e fundos das empresas.
Resumo:
O presente trabalho analisa o comportamento da volatilidade do crescimento do produto brasileiro entre 1980 e 2008, cuja trajetória apresenta um declínio de 70% desde 1991. Através da análise do comportamento do PIB, de seus componentes e de seus determinantes, objetiva-se apontar as razões pela qual a volatilidade do crescimento caiu de forma significativa no período considerado. A baixa volatilidade do crescimento do produto traz conseqüências positivas para o bem-estar da sociedade, para a distribuição de renda e para o crescimento econômico de longo prazo. Diferentes estudos foram realizados para apontar as causas do declínio desta volatilidade em diversos países nas últimas três décadas, fenômeno que nos Estados Unidos passou a ser conhecido como The Great Moderation. Dados os benefícios deste processo, entender as suas razões é imprescindível para a formulação de políticas econômicas que garantam a sustentabilidade da moderação dos ciclos econômicos. Este trabalho concentra-se nos fatores nominais (choques de demanda) para explicar o processo de redução da volatilidade do crescimento brasileiro. De um lado, a ausência de restrições externas ao crescimento econômico e o ciclo de prosperidade mundial dos últimos cinco anos garantiram a contribuição da parcela externa. Por outro lado, a condução de políticas macroeconômicas mais sólidas, refletindo em uma maior estabilidade de variáveis como o nível de preços, respondem pelos fatores internos.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Quando as empresas decidem se devem ou não investir em determinado projeto de investimentos a longo prazo (horizonte de 5 a 10 anos), algumas metodologias alternativas ao Fluxo de Caixa Descontado (FCD) podem se tornar úteis tanto para confirmar a viabilidade do negócio como para indicar o melhor momento para iniciar o Empreendimento. As análises que levam em conta a incerteza dos fluxos de caixa futuros e flexibilidade na data de início do projeto podem ser construídos com a abordagem estocástica, usando metodologias como a solução de equações diferenciais que descrevem o movimento browniano. Sob determinadas condições, as oportunidades de investimentos em projetos podem ser tratados como se fossem opções reais de compra, sem data de vencimento, como no modelo proposto por McDonald-Siegel (1986), para a tomada de decisões e momento ótimo para o investimento. Este trabalho analisa a viabilidade de investimentos no mercado de telecomunicações usando modelos não determinísticos, onde a variável mais relevante é a dispersão dos retornos, ou seja, que a variância representa o risco associado a determinado empreendimento.
Resumo:
Este trabalho tem por objetivo a precificação de opções de câmbio de EUR/BRL em função de seus componentes mais líquidos USD/BRL e EUR/USD. Para isso, adaptamos e calibramos um modelo de volatilidade estocástica a partir dos dados observados no mercado. Para compararmos os valores estimados pelo modelo com os negociados no mercado, simulamos estratégias de arbitragem entre os três pares envolvidos através dos dados históricos da cotação das moedas. O trabalho sugere que há um viés significativo no grau de curtose da distribuição dos retornos do par EUR/BRL implícita nos dados de mercado.
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.
Resumo:
O objetivo deste trabalho é avaliar o desempenho de diferentes métodos de extração da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) tendo como referência a volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Os resultados indicam que os estimadores alternativos são tão precisos quanto os modelos do tipo GARCH, apesar de serem muito mais econômicos em termos computacionais.
Resumo:
O trabalho tem como objetivo descrever um processo de transmis são de choques na correlação da taxa de câmbio do Brasil, Chile, Euro e México com base no modelo de correlação dinâmica de [Engle, 2002]. O modelo é estendido para capturar efeitos assi métricos na volatilidade e na correlação. A trajetória estimada da correlação mostra-se com desvios significativos em relação a correla ção incondicional, a amplitude da correlação condicional é elevada e há inclusive alteração de sinal quando a correlação é feita em relação ao Euro. Num calculo de valor em risco, o modelo com correlação dinâmica tem uma performance muito superior a um modelo com correlação constante, levando-se em conta os mesmos processos de volatilidade.
Resumo:
O foco central deste estudo foi desenvolver uma análise da trajetória dos prsços da borracha natural bensflciada ao longo do século XX, através da utilização dos testes econométricos da dasse - ARCH: GARCH, E-GARCH e TARCH para o da Malásia, principal entidade de formação do preço intemacional da commodity. Como resultado dos testes estatísticos dos dados disponíveis no mercado, observouse uma forte incidência de ciclos de sazonalidade no preço intemacional da borracha impactando diretamente na produção mundial. Observa se ainda a baixa capacidade de resposta da produção a choques de demanda devido ao longo prazo de maturação das pfantações