949 resultados para high-frequency discharges
Resumo:
Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.
Resumo:
O presente trabalho analisa os reservatórios turbidíticos do Campo de Namorado, Bacia de Campos – RJ, com a apresentação de um novo modelo evolutivo para o intervalo entre o Albiano superior e Cenomaniano, na área do referido campo. As ferramentas utilizadas neste estudo consistiram da interpretação sísmica em ambiente tridimensional com o software VoxelGeo®, e da análise faciológica junto à perfilagem de poços do referido campo. A análise desenvolvida permitiu a individualização e a posterior visualização tridimensional de um paleocanal meandrante na base do intervalo estudado, feição esta até então não relatada em interpretações anteriores neste reservatório. Como resultado das análises sísmicas e faciológicas, foi possível elaborar um modelo deposicional, onde foram definidos quatro sistemas turbidíticos distintos, inclusos em duas seqüências de 3ª Ordem. Esses sistemas turbidíticos estariam, portanto, associados às seqüências de 4ª Ordem, que são interpretadas como parasseqüências, inseridas nos dois ciclos de 3ª Ordem. As seqüências de 3ª Ordem, que englobam os reservatórios do Campo de Namorado, representariam intervalos de alta freqüência no registro estratigráfico, dentro do contexto de afogamento (2ª Ordem) da Bacia de Campos. Pelas características da calha deposicional observada para o Campo de Namorado, é possível concluir que o sistema, como um todo, foi depositado em um complexo de canais, junto a sistemas de frentes deltaicas. Esses canais, provavelmente, foram esculpidos por fluxos hiperpicnais, formados a partir de inundações catastróficas. As informações provenientes deste estudo, proporcionaram uma melhor compreensão da gênese dos depósitos turbidíticos, acumuladores de hidrocarbonetos, no intervalo estudado, e cuja ocorrência está relacionada com etapas de rebaixamento relativo do nível do mar.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado
Resumo:
Esse artigo estabelece uma base para pesquisas que tratam da relação entre pobreza, distribuição de recursos e operação do mercado de capitais no Brasil. O principal objetivo é auxiliar a implementação de políticas de reforço de capital dos pobres. A disponibilidade de novas fontes de dados abriu condições inéditas para implementar uma análise de posse de ativos e pobreza nas áreas metropolitanas brasileiras. A avaliação de distribuição de recursos foi estruturada sobre três itens: Capital físico, capital humano e capital social. A estratégia empírica seguida é de analisar três diferentes tipos de impactos que o aumento dos ativos dos pobres podem exercer no nível de bem estar social. A primeira parte do artigo avalia a posse de diferentes tipos de capitais através da distribuição de renda. Esse exercício pode ser encarado como uma ampliação de medidas de pobreza baseadas em renda pela incorporação de efeitos diretos exercidos pela posse de ativos no bem estar social. A segunda parte do artigo descreve o impacto de geração de renda que a posse de ativos pode ter sobre os pobres. Estudamos como a acumulação de diferentes tipos de capital impactam os índices de pobreza baseados na renda usando regressões logísticas. A terceira parte estuda o efeito que o aumento da posse de ativos dos pobres tem no melhoramento da habilidade dos indivíduos pobres em lidar com choques adversos da renda. Estudamos a interação entre a dinâmica da renda, imperfeições do mercado de capitais e comportamentos financeiros levando em consideração diferentes horizontes de tempo. As questões de longo prazo estão relacionadas com o estudo das flutuações de renda de baixa freqüência e ciclo da vida da posse de ativos usando análise de coorte. As questões de curto prazo estão relacionadas com o comportamento do pobre e as perdas de bem estar ao lidar com hiatos de alta freqüência entre renda e consumo desejado. A análise da dinâmica de renda e pobreza é conduzida a partir da combinação de dados de painel de renda com dados qualitativos sobre comportamento financeiro de curto prazo das famílias.
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
A Gangliosidose GM1 é um Erro Inato do Metabolismo (EIM) causado pela deficiência da enzima B-galactosidase ácida. Essa doença é caracterizada pelo acúmulo de metabólitos não degradados, principalmente gangliosídeo GM1, nos lisossomos de vários tipos celulares. Baseado na idade de início e na atividade residual da enzima, a Gangliosidose GM1 é classificada em três diferentes tipos: infantil, juvenil e adulto. O gene da B-galactosidase ácida (GLB1, GeneBank M27507) está situado no cromossomo 3 e possui mais de 60 kb, contendo 16 exons. Cerca de 50 mutações associadas à doença estão descritas na literatura. No sul do Brasil, há uma alta freqüência dessa doença (1:17.000 nascidos vivos). Neste trabalho, vinte pacientes diagnosticados no Hospital de Clínicas de Porto Alegre (Brasil) tiveram o gene GLB1 investigado por SSCP (Single Strand Conformational Polymorphism) usando DNA extraído de sangue periférico. Através desta triagem foram encontradas 52 alterações de mobilidade do DNA, indicando a presença de mutações. As amostras relativas aos exons 2 e 15 foram submetidas a sequenciamento direto com seqüenciador ABI31O(Applied Biosystens) utilizado kit BigDye 3.1. Cinco novas mutações no gene GLB1 (F63Y, R38G, Y36S, Y64F e R59C) e duas mutações já descritas (R59H e 1622-1627insG) foram encontradas. Este trabalho possibilitou a genotipagem completa de 6 pacientes e parcial de 5, e direcionou a investigação de mutações, contribuindo diretamente no diagnóstico da enfermidade e permitindo a realização de estudos de correlação genótipo/fenótipo destes pacientes.
Resumo:
Using intraday data for the most actively traded stocks on the São Paulo Stock Market (BOVESPA) index, this study considers two recently developed models from the literature on the estimation and prediction of realized volatility: the Heterogeneous Autoregressive Model of Realized Volatility (HAR-RV), developed by Corsi (2009), and the Mixed Data Sampling model (MIDAS-RV), developed by Ghysels et al. (2004). Using measurements to compare in-sample and out-of-sample forecasts, better results were obtained with the MIDAS-RV model for in-sample forecasts. For out-of-sample forecasts, however, there was no statistically signi cant di¤erence between the models. We also found evidence that the use of realized volatility induces distributions of standardized returns that are closer to normal
Resumo:
O trabalho tem por objetivo validar a influência dos formadores de mercado de ações sobre a liquidez, uma proxy capaz de medir os custos de transação no mercado secundário de ações. O desafio de medir corretamente a liquidez teve trabalhos relevantes desde 1984, e recentemente foi alvo de uma revisão geral que comparou diversas medidas e encontrou alguns ganhadores. A proposta do presente trabalho é a de revisitar estas medidas e selecionar a métrica mais adequada ao mercado Brasileiro. Escolhida a proxy mais significativa, será então avaliada a relevância do formador de mercado na determinação dos custos de transação por meio de uma versão modificada da equação econométrica de Sanvicente (2012). Por fim, este trabalho será relevante para identificar se as empresas devem contratar formadores de mercado para suas ações, com o fim de reduzirem os custos da negociação de suas ações.
Resumo:
Vários estudos têm sugerido que seres vivos podem ser suscetíveis aos campos eletromagnéticos (CEMs). Os supostos efeitos dos Campos Eletromagnéticos de Ultra Alta Freqüência (CEMUAFs) em sistemas biológicos são pouco conhecidos. Os relatos de um possível efeito biológico dependente da alteração de estados de oxidação entre pares de radicais sugerem um mecanismo de transdução orgânica para os campos. Outros trabalhos obtiveram alterações na sinalização celular e defesas antioxidantes após a exposição CEMUAFs e, tais alterações, poderiam ser um agente causador de doenças como, por exemplo, a leucemia infantil, esta já correlacionada com a exposição aos CEMs. Desta forma o objetivo deste estudo foi investigar se o CEMUAF (834 MHz) poderia interferir com o balanço oxidativo de planárias e ratos, assim como, estudar a participação de enzimas responsáveis pela hidrólise de nucleotídeos, enzimas estas reconhecidas por serem influenciadas pela ação de radicais livres. As planárias foram expostas por 1, 3 e 6 dias (8 h/dia). Após a exposição foi feito um homogenato de todo o corpo de cada animal. Foi encontrado um aumento na atividade da superóxido desmutase (SOD) e um decréscimo na atividade da catalase (CAT) e na defesa antioxidante não-enzimática (TRAP) após 6 dias de exposição. Adicionalmente, houve um aumento na freqüência de micronúcleos (MN) após 3 e 6 dias de exposição. Não houve alteração nos parâmetros de dano oxidativo a lipídios (TBARS) e proteínas (Carbonil) em nenhum dos tempos de exposição. Estes resultados sugerem um aumento nos níveis de radicais livres e de danos aos ácidos nucléicos. Estudos posteriores deverão determinar se estes efeitos apresentam ou não associações do tipo causa e efeito. Foram utilizados três modelos com ratos. No primeiro modelo, animais com idades de 30, 80 e 210 dias foram expostos por 6 dias (7:30 h/dia). Não foram encontradas mudanças nos parâmetros de TRAP, TBARS e Carbonil em nenhuma das idades expostas ao CEMUAF. Estes resultados sugerem que os tempos de exposição utilizados não foram suficientes para causar alguma mudança perceptível nos parâmetros de estresse oxidativo. No segundo modelo, utilizou-se o sangue e fígado dos neonatos expostos ao CEMUAF ainda no útero de suas mães durante todo o seu desenvolvimento embrionário (8:30 h/dia). Não foram encontradas mudanças em nenhum parâmetro oxidativo. Foi encontrado um aumento na freqüência de MN nas hemácias, sugerindo um efeito genotóxico da irradiação do celular afetando o tecido hematopoiético dos fetos. No terceiro modelo, utilizou-se o sangue de ratos adultos (180 dias) expostos por 12 dias (8:30 h/dia). Os níveis da hidrólise de ATP e ADP estavam aumentados no grupo irradiado. Nenhum efeito foi observado nas atividades da SOD e da CAT, sugerindo nenhuma participação de radicais livres nestes resultados. Ainda são necessários muitíssimos estudos para determinar quais os mecanismos transdutores dos CEMUAFs em sistemas biológicos e de que forma esta interação ocorre, porém estes resultados sugerem: (a) um papel para os radicais livres sobre, pelo menos, alguns dos efeitos atribuídos aos CEMUAFs e (b) que os organismos em fase de formação podem ser mais sensíveis aos campos. Por fim, sugerimos que sistemas biológicos podem sofrer a ação da irradiação com uma quantidade de energia muito menor do que a esperada para promover algum efeito no metabolismo.
Resumo:
This paper proposes a two-step procedure to back out the conditional alpha of a given stock using high-frequency data. We rst estimate the realized factor loadings of the stocks, and then retrieve their conditional alphas by estimating the conditional expectation of their risk-adjusted returns. We start with the underlying continuous-time stochastic process that governs the dynamics of every stock price and then derive the conditions under which we may consistently estimate the daily factor loadings and the resulting conditional alphas. We also contribute empiri-cally to the conditional CAPM literature by examining the main drivers of the conditional alphas of the S&P 100 index constituents from January 2001 to December 2008. In addition, to con rm whether these conditional alphas indeed relate to pricing errors, we assess the performance of both cross-sectional and time-series momentum strategies based on the conditional alpha estimates. The ndings are very promising in that these strategies not only seem to perform pretty well both in absolute and relative terms, but also exhibit virtually no systematic exposure to the usual risk factors (namely, market, size, value and momentum portfolios).
Resumo:
Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.
Resumo:
The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.
Resumo:
This work proposes a method to examine variations in the cointegration relation between preferred and common stocks in the Brazilian stock market via Markovian regime switches. It aims on contributing for future works in "pairs trading" and, more specifically, to price discovery, given that, conditional on the state, the system is assumed stationary. This implies there exists a (conditional) moving average representation from which measures of "information share" (IS) could be extracted. For identification purposes, the Markov error correction model is estimated within a Bayesian MCMC framework. Inference and capability of detecting regime changes are shown using a Montecarlo experiment. I also highlight the necessity of modeling financial effects of high frequency data for reliable inference.