940 resultados para Clusters de Volatilidade
Resumo:
O presente trabalho teve por objetivo identificar se a aglomeração de lojas de veículos existente na Avenida Marechal Tito / Avenida São Miguel (zona leste do município de São Paulo) forma um cluster comercial varejista, a partir dos fundamentos da performance competitiva de clusters descritos por Zaccarelli et al. (2008). Este é um estudo descritivo de natureza quantitativa, executado a partir de amostragem não-probabilística fundamentada no critério de acessibilidade dos pesquisadores junto aos proprietários e gestores de 128 lojas de automóveis, das quais 85,94% são microempresas, 12,50% são de pequeno porte e 1,56% são de médio porte. Constatou-se que a localidade ainda se encontra em um estágio inicial de cluster comercial varejista, pois apesar de haver forte concorrência entre os lojistas naquela concentração geográfica, com ausência de posições privilegiadas e substituição seletiva dos participantes não competitivos, a cooperação entre eles é incipiente, bem como não há nenhuma iniciativa voltada para o aumento da competitividade do aglomerado como um todo.
Resumo:
O artigo tem como objetivo utilizar a contribuição do conceito de cluster para avaliação estratégica e apresentar uma proposta de análise das oportunidades do setor turístico, considerando todos os agentes envolvidos na criação,comercialização e divulgação dos serviços/produtos turísticos, que possibilitem atender as necessidades exigidas pela demanda e o desenvolvimento sustentável da população receptora. Utilizando como foco o distrito de Paranapiacaba, na cidade de Santo André/SP, foi feita uma pesquisa descritiva, em que inicialmente foram utilizados dados secundários e, em seguida, foi realizada a coleta de dados primários por meio de entrevistas programadas e observação direta em campo dos agentes envolvidos. Os resultados obtidos indicam a necessidade da consolidação de uma entidade supra-empresarial que exerça a governança e que seja capaz de agregar os interesses dos diversos setores, além de garantir a implantação de uma série de ações que venham contribuir para a criação de vantagens competitivas.
Resumo:
Tese apresentada ao Programa de Pós-Graduação em Administração da Universidade Municipal de São Caetano do Sul para a obtenção do título de Doutor(a) em Administração
Resumo:
A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.
Resumo:
A transformação da tecnologia, tanto na área da informática quanto em telecomunicações, facilitou o acesso a informação, bem como, reduziu os seus custos de acesso. Isso fez com que as redes de relações entre os agentes econômicos adquirissem maior agilidade e alcance geográfico, estreitando a interação ente o local e o global. Desta forma, a organização na busca da inserção no mercado internacional voltou-se para um processo regional, no qual o conceito de cluster passa a ser uma ferramenta hábil para responder distintas indagações. Esses questionamentos surgem desde o ciclo dos negócios e da administração das firmas, até a utilização de recursos como espaço, mão-de-obra, insumos e principalmente da disseminação do conhecimento. Inerte neste novo ambiente criado pelo avanço tecnológico, as aglomerações industriais servem como facilitadoras na criação de inovações que apresentam-se como externalidades positivas, na geração do desenvolvimento econômico regional. Tanto que, chegam a incitar a participação, em determinadas situações, bastante ativa dos governos no intuito de promover e sustentar o industrial clustering. Portanto, o tema central deste trabalho será clusters, e o seu papel determinante na obtenção de vantagens competitivas na indústria e sua relação com o desenvolvimento regional. Dentro deste intuito, também apresenta-se-á, no Capítulo 5, a análise do cluster de calçados do Vale dos Sinos no Estado do Rio Grande do Sul, através do método estrutural diferencial, com dados fornecidos pela Relação Anual de Informações Sociais – RAIS, no período de 1990 até 2001.
Resumo:
O lançamento de DRs (Recibos de Depósitos) por empresas brasileiras é um mecanismo que possibilita às empresas terem acesso a mercados de capitais maiores e mais líquidos, podendo servir como um instrumento para o aumento de suas visibilidades no exterior e como um possível redutor de seus custos de capital. Esta pesquisa verifica os reflexos ocorridos nas ações das empresas brasileiras que lançaram mão deste instrumento no que tange a suas valorizações de mercado, suas volatilidades e suas performances ajustadas ao risco. De uma forma geral, apesar de pouco significativos estatisticamente, os resultados encontrados para as empresas brasileiras parecem ser condizentes com a hipótese de que a negociação internacional dos papéis dessas companhias ajudam a reduzir os efeitos da segmentação de mercado em suas ações, estando associados a ajustes para cima em seus preços, e para baixo, em seus retornos esperados e em suas volatilidades, para todos os tipos de DRs brasileiros negociados no mercado norte-americano, à exceção dos DRs de nível III que, de uma forma não significativa, parecem se comportar como se fossem emissões sazonais de capitais tradicionais (seasoned equity offerings).
Resumo:
A dissertação investiga as séries de taxa de câmbio da Polônia do Brasil. elevada volatilidade da série polonesa não explicada pelas variáveis utilizadas como fundamentos. No caso brasileiro, isto verdade para modelo com variáveis do setor real da economia Detectou-se co-integração entre as variáveis do setor financeiro, que levanta hipótese da existência de um processo de aprendizagem induzido pelo longo convívio com altas taxas de inflação e indexação generalizada da economia brasileira. volatilidade da taxa de cambio bastante impactada por intervenções drásticas na economia, concluindo-se que adoçáo deste tipo de medida atua como fator de incremento da volatilidade da taxa de câmbio.
Resumo:
O objetivo deste trabalho é comparar diferentes métodos da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) utilizando uma nova metodologia proposta na literatura, denominada volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Concluímos que pode ser interessante a utilização de estimadores mais simples do que os derivados da família GARCH, que acabam sendo mais econômicos em termos de tempo dispendido no processo de estimação, sem perda de precisão.
Resumo:
Neste trabalho compara-se diversos métodos de determinação da volatilidade de uma ação, quando a finalidade é tornar um dado spread de opções delta-neutro, usando o modelo de Black-Scholes. Os spreads são formados com o objetivo de gerar lucros de arbitragem, através de uma estratégia de exploração sistemática de distorções de volatilidades implícitas das opções de compra da Telebrás na BOVESPA, no período de Abril de 93 a Maio de 95. A comparação dos métodos é feita através de medidas da eficiência dos mesmos em hedgear os spreads formados. Nessas condições, conclui-se que a melhor maneira de tomar a carteira delta-neutra é usando para cada opção a sua respectiva volatilidade implícita. Além disso, verifica-se que teria sido possível, para um agente com baixos custos de transação, obter lucros substanciais com a estratégia de trading utilizada.
Resumo:
Este trabalho cuida de avaliar a eficiência do mercado de opções de ações da bolsa de valores de são Paulo (BOVESPA). A avaliação é feita através do modelo Black-Scholes, e traz como principal novidade diversas estimativas de volatilidade. Portanto torna-se um teste conjunto da eficiência do mercado, do modelo Black-Scholes e das diversas estimativas de volatilidade. O objetivo principal ~ determinar a volatilidade que gera o melhor retorno , isto é , aponta a maior ineficiência do mercado. Foram utilizadas opções de Paranapanema-pp e Petrobr's-pp no per(odo de novembro de 1987 a outubro de 1988. Dois testes de eficiência foram realizados para cada volatilidade estimada . Em ambos observou-se que o mercado é ineficiente, e no segundo obtivemos evidência de que uma das estimativas de volatilidade gera um retorno maio
Resumo:
Este trabalho compara diferentes metodologias de previsão de volatilidade para vértices da estrutura a termo de juros em reais e propõe um novo modelo, batizado como COPOM-GARCH, para estimação desta. O modelo COPOM-GARCH se utiliza de duas variáveis dummy, uma no dia de divulgação do resultado da Reunião do COPOM e outra no dia seguinte, para fazer uma melhor previsão da volatilidade tanto nestes dois dias quanto nos dias subseqüentes.
Resumo:
O trabalho se propõe a, de acordo com os testes de credibilidade existentes, avaliar se a crise do México em 94 e a crise asiática, tendo como proxy os casos da Tailândia e Hong Kong poderiam ter sido previstas com os modelos existentes de credibilidade. Além disso, são feitas modificações nos testes de modo a tomá-los mais eficientes. Desta forma, pode-se comparar as conclusões a respeito baseadas apenas em modelos de previsão e conclusões construídas a partir da observação de outras variáveis econômicas. Os países analisados neste trabalho são Brasil, México (antes de 94), Venezuela, Rússia, Tailândia e Hong Kong.
Resumo:
Devido a sua baixa latência de banda, os clusters equipados com o adaptador SCI são uma alternativa para sistemas de tempo real distribuídos. Esse trabalho apresenta o projeto e implementação de uma plataforma de comunicação de tempo real sobre clusters SCI. O hardware padrão do SCI não se mostra adequado para a transmissão de tráfego de tempo real devido ao problema da contenção de acesso ao meio que causa inversão de prioridade. Por isso uma disciplina de acesso ao meio é implementada como parte da plataforma. Através da arquitetura implementada é possível o estabelecimento de canais de comunicação com garantia de banda. Assim, aplicações multimídias, por exemplo, podem trocar com taxa constante de conunicação. Cada mensagem é enviada somente uma vez. Assim, mensagens som a semântica de eventos podem ser enviadas. Além disso, a ordem e o tamanho das mensagens são garantidos. Além do tráfego com largura de banda garantida, a plataforma possibilita a troca de pacotes IP entre diferentes máquinas do cluster. Esses pacotes são inseridos no campo de dados dos pacotes próprios da plataforma e após são enviados através do uso de pacotes IP. Além disso, essa funcionalidade da plataforma permite também a execução de bibliotecas de comunicação baseadas em TCP/IP como o MPI sobre o cluster SCI. A plataforma de comunicação é implementada como modulos do sistema operacional Linux com a execução de tempo real RTAI. A valiação da plataforma mostrou que mesmo em cenários com muita comunicação entre todos os nodos correndo, a largura de banda reservada para cada canal foi mantida.