597 resultados para Hbt radii
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
O objetivo desse estudo foi analisar a relação entre descargas elétricas, associadas à precipitação dentro de áreas selecionadas no leste da Amazônia no período de setembro de 2008 a dezembro de 2010. Os estudos foram realizados dentro de um raio de 100 km centralizados em pluviômetros instalados das localidades de Belém, Caxiuanã e Santarém. Essas áreas foram escolhidas por encontrarem-se aproximadamente na mesma latitude, e vão se distanciando do Oceano Atlântico, buscando observar a sazonalidade dos sistemas precipitantes causadores de raios e sua penetração no continente, observando as características climatológica distintas de cada área. Os dados de chuvas foram obtidos através do banco de dados da ANA, RPCH, INMET e através do Projeto LBA. Os sistemas meteorológicos de grande escala acompanhados de sistemas de escala menores, parecem atuar primeiramente em Belém e vão adentrando o continente atingindo as outras áreas de estudo. Em Belém, também foram observadas as maiores ocorrências de raios comparados com Caxiuanã e Santarém, sendo que nessas localidades, os raios antecedem as chuvas em quase todas as observações. Foram observadas as defasagens dos máximos de ocorrências de raios e chuvas de aproximadamente dois meses acompanhando principalmente o sentido norte sul de deslocamento da ZCIT e seu acoplamento com outros sistemas de escala local ou de meso escala. Foi feito um estudo de caso em Belém e Santarém onde observou-se que a ZCIT não segue o mesmo padrão de deslocamento para as duas localidades , ou seja, ela atinge primeiramente Belém e aproximadamente três dias depois o sistema atingiu a cidade de Santarém. Mesmo com essa defasagem de tempo foi visto que nas duas localidades as ocorrências de raios antecederam as chuvas. Também foi realizado um estudo pioneiro dentro das bacias do Tocantins e Xingu sobre a relação entre raios e chuva, na tentativa de se desenvolver uma alternativa de método auxiliar para prognostico dos períodos de cheias e secas dentro dessas bacias através das ocorrências de raios sobre essas áreas. Os estudos mais detalhados foram realizados nas áreas a montante das barragens de Tocantins onde se encontra a usina hidroelétrica de Tucuruí, e dentro da área da bacia do Xingu onde está sendo construída a barragem de Belo Monte. Foram utilizados dados de precipitação pluviométrica das bacias do Tocantins e Xingu obtidos através da HIDROWEB-ANA operados pela CPRM dentro de cada área de estudo. Usando filtros de médias móveis foram observados que as melhores correlações entre raios e chuvas, se encontravam dentro da bacia do Tocantins, provavelmente pela influencia da presença da barragem na bacia do Tocantins onde possibilitou respostas positivas entre a relação da cota do rio com os raios. Considerando o fato de que o período de dois anos de dados não possuem peso estatístico suficiente para estabelecer relações definitivas entre raios e precipitação, os resultados apresentados devem ser considerados como preliminares. No entanto essa metodologia pode ser aplicada para subsidiar modelos de estimativas de precipitação em localidades selecionadas e aplicações no modelamento hidrológico de bacias hidrográficas, onde dados pluviométricos ainda são escassos no leste da Amazônia.
Resumo:
Pós-graduação em Odontologia Restauradora - ICT
Resumo:
Pós-graduação em Ciência e Tecnologia de Materiais - FC
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
The present study aimed to assess the influence of curing distance on the loss of irradiance and power density of four curing light devices. The behavior in terms of power density of four different dental curing devices was analyzed (Valo, Elipar 2, Radii-Cal, and Optilux-401) using three different distances of photopolymerization (0 mm, 4 mm, and 8 mm). All devices had their power density measured using a MARC simulator. Ten measurements were made per device at each distance. The total amount of energy delivered and the required curing time to achieve 16 J/cm2 of energy was also calculated. Data were statistically analyzed with one-way analysis of variance and Tukey’s tests (p < 0.05). The curing distance significantly interfered with the loss of power density for all curing light devices, with the farthest distance generating the lowest power density and consequently the longer time to achieve an energy density of 16 J/cm2 (p < 0.01). Comparison of devices showed that Valo, in extra power mode, showed the best results at all distances, followed by Valo in high power mode, Valo in standard mode, Elipar 2, Radii-Cal, and Optilux-401 halogen lamp (p < 0.01). These findings indicate that all curing lights induced a significant loss of irradiance and total energy when the light was emitted farther from the probe. The Valo device in extra power mode showed the highest power density and the shortest time to achieve an energy density of 16 J/cm2 at all curing distances.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Multidimensional and one-dimensional quantum-statistical (Bose-Einstein) correlations are measured in proton proton collisions at 0.9, 2.76 and 7 TeV, in proton lead collisions at 5.02 TeV/nucleon pair and peripheral lead lead collisions at 2.76 TeV/nucleon pair center-of-mass energy with the CMS detector at the LHC. The correlation functions are extracted in terms of different components of the relative momentum of the pair, in order to investigate the extension of the emission source in different directions. The results are presented for different intervals of transverse pair momentum, k(T), and charged particle multiplicity of the collision, N-tracks, as well as for their integrated values. Besides inclusive charged particles, charged pions and kaons, identified via their energy loss in the silicon tracker detector, can also be correlated. The extracted source radii increase with increasing multiplicity, and decrease with increasing k(T). The results open the possibility to study scaling and factorization properties of these radii as a function of multiplicity, k(T), colliding system size and center-of-mass energy.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Refractive and profilometric measurements of lenses were performed through holography with a photorefractive Bi12TiO20 crystal as the recording medium. Two properly aligned diode lasers emitting in the red region were employed as light sources. Both lasers were tuned in order to provide millimetric and sub-millimetric synthetic wavelengths. The surfaces of the test lens were covered by a 25-μm opaque plastic tape in order to allow the lens profilometry upon illuminating them with a collimated beam. The resulting holographic images appear covered by interference fringes corresponding to the wavefront geometry of the wave scattered by the lens. For refractive index measurement a diffusely scattering flat surface was positioned behind the uncovered lens which was also illuminated by a plane wave. The resulting contour interferogram describes the form of the wavefront after the beam traveled back and forth through the lens. The fringe quantitative evaluation was carried out through the four-stepping technique and the resulting phase map and the Branch-cut method was employed for phase unwrapping. The only non-optical procedure for lens characterization was the thickness measurement, made by a dial caliper. Exact ray tracing calculation was performed in order to establish a relation between the output wavefront geometry and the lens parameters like radii of curvature, thickness and refractive index. By quantitatively comparing the theoretical wavefront geometry with the experimental results relative uncertainties bellow 3% for refractive index and 1 % for focal length were obtained. © 2008 American Institute of Physics.