966 resultados para olografia ologrammi onda registrazione ricostruzione
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (AN) a partir de dados de cobertura múltipla pode ser realizada através do empilhamento sísmico, o qual é um método de imageamento de reflexão sísmica muito utilizado na indústria. O processo de empilhamento sísmico permite reduzir a quantidade de dados e melhorar a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda. Recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Este novo formalismo pode ser estendido para construir seções de afastamento-nulo (AN) a partir de dados de cobertura múltipla, usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento-nulo (AN), para o caso de uma linha de medição com topografia suave e rugosa. Essas duas aproximações de tempos de trânsito também dependem de três atributos cinemáticos de frentes de ondas. Nesta dissertação, apresenta-se uma revisão teórica da teoria paraxial do raio para a obtenção das aproximações dos tempos de trânsito paraxiais considerando uma linha de medição com topografia rugosa e suave. A partir das aproximações dos tempos de trânsito paraxiais em relação a um raio central com afastamento-nulo (AN), foram obtidas duas novas aproximações de tempos de trânsito usando a condição de um ponto difrator em profundidade, reduzindo as equações originais para dois parâmetros. Também foram obtidas as aproximações para o caso de raios paraxiais com afastamento-nulo (AN). Para as aproximações de reflexão e difração utilizando um mesmo modelo sintético, foram comparadas através da representação gráfica as superfícies de empilhamento das aproximações dos tempos de trânsito para a topografia suave e rugosa. Em seguida, para analisar o comportamento dos operadores associados a reflexão e a difração, quando estes são perturbados, discutimos suas sensibilidades em relação a cada um dos três parâmetros (β0, KPIN, KN). Esta análise de sensibilidade foi realizada em duas formas: Sensibilidade através da perturbação de cada parâmetro visualizado nas superfícies de empilhamento SRC-TR e SDC-TR e da primeira derivada dos tempos de trânsito SRC-TR e SDC-TR. Finalmente, usando essas aproximações hiperbólicas em função de três e dois parâmetros e com base nos resultados da análise de sensibilidade, foi proposto um algoritmo para simular seções AN a partir de dados de cobertura múltipla.
Resumo:
Ainda hoje, a migração em tempo é o processo de imageamento substancialmente empregado na indústria do petróleo. Tal popularidade é devida ao seu alto grau de eficiência e robustez, além de sua habilidade em focalizar refletores nos mais variados ambientes geológicos. Entretanto, em áreas de alta complexidade geológica a migração em tempo falha de tal forma que a migração em profundidade e um campo de velocidade em profundidade são indispensáveis. Esse campo é geralmente obtido através de processos tomográficos partindo de um campo de velocidade inicial. A conversão de campos de velocidade de tempo para profundidade é uma forma rápida de se obter um campo inicial mais consistente geologicamente para tais processos. Alguns algoritmos de conversão tempo-profundidade recentemente desenvolvidos baseados no traçamento de raios-imagem são revistos e um algoritmo alternativo baseado na propagação da frente de onda-imagem é proposto. Os algoritmos são aplicados a dados sintéticos bidimensionais e avaliados de acordo com suas eficiência e acurácia, destacando suas vantagens, desvantagens e limitações na obtenção de campos de velocidade em profundidade.
Resumo:
O objetivo principal deste trabalho é avaliar o uso dos dados de altimetria de satélites para mapear a superfície do potencial gravitacional (geóide) no mar. Esta avaliação se faz por comparações da resolução e precisão entre os dados de altimetria processados numa superfície equipotencial (o mar) e dados obtidos a partir de levantamentos convencionais. Uma vez processada a superfície equipotencial, quantidades tais como a anomalia "ar livre" juntamente com o desvio vertical podem ser calculadas. Os dados altimétricos ("altura do mar") utilizados neste trabalho foram coletados pelo satélite GEOSAT. Este satélite rastreou diversas áreas oceânicas do globo processando 44 ciclos em dois anos. Alguns pesquisadores utilizaram os valores médios da "altura do mar" deste satélite para melhoramentos em precisão e resolução dos registros. Estes valores tratados estão disponíveis em NOAA (National Oceanic and Atmospheric Administration) sendo deste modo repassados à UFPa para utilização nesta tese. Os dados de gravimetria marinha utilizados neste trabalho são aqueles obtidos do levantamento "Equatorial Atlantic" (EQUANT I e II) resultantes de uma pesquisa conjunta entre várias instituições com objetivos científicos de conhecer o comportamento da margem equatorial Brasileira. Para comparação e integração entre os dois tipos de dados obtidos através de fontes distintas (medidas de satélite e do navio), poder-se-ia obter a aceleração vertical numa superfície equipotencial partindo-se de um tratamento algébrico dos dados coletados por rastreamento altimétrico do satélite Geosat ou alternativamente poder-se-ia processar transformações dos dados de gravimetria marinha em uma superfície equipotencial equivalente. Em decorrência de diferenças no espaçamento entre as linhas dos levantamentos, ou seja, as linhas das trajetórias do satélite estão largamente espaçadas em comparação com aquelas do levantamento marinho, optou-se por transformar os dados gravimétricos do navio em uma superfície equipotencial. Neste tipo de transformação, consideraram-se vários fatores tais como efeitos "aliasing", nível de ruídos nos levantamentos do navio, redução ao geóide (correção "ar livre"), bem como erros computacionais durante as transformações. Com a supressão parcial desses efeitos (enfatizando o "aliasing") encontrou-se forte correlação entre os dois conjuntos de dados verificando-se um nível de coerência satisfatório a partir do comprimento de onda de 11 km. Comparando-se este resultado com o nível de resolução do satélite Geosat largamente estudado por outros pesquisadores enfatiza-se que de fato a resolução dos valores médios (2 anos) do satélite Geosat aproxima-se da resolução dos levantamentos do Equant I e Equant II.
Resumo:
Esta dissertação apresenta um método para estimar a orientação de fratura de um meio partindo do pressuposto que este se comporta efetivamente como um meio transversalmente isotrópico (TI). Desta forma, a orientação de fratura é obtida a partir da estimativa do eixo de simetria de um meio TI. Esta estimativa é obtida a partir dos vetores de vagarosidade e polarização de ondas qP medidos em experimentos VSP Walkaway. O processo de inversão é baseado em equações linearizadas dos vetores de vagarosidade e polarização de ondas qP e os parâmetros fracamente anisotrópicos do meio. São apresentados testes numéricos, em que a sensibilidade a fatores como grau de anisotropia, geometria do levantamento, tipo de onda utilizado e nível de ruído são analisados. São também apresentados os resultados para um conjunto de dados reais.
Resumo:
A motivação geológica deste trabalho reside no imageamento de estruturas de bacias sedimentares da região Amazônica, onde a geração e o acúmulo de hidrocarboneto estão relacionados com a presença de soleiras de diabásio. A motivação sísmica reside no fato de que essas rochas intrusivas possuem grandes contrastes de impedância com a rocha encaixante, o que resulta em múltiplas, externas e internas, com amplitudes semelhantes as das primárias. O sinal sísmico das múltiplas podem predominar sobre o sinal das reflexões primárias oriundas de interfaces mais profundas, o que pode dificultar o processamento, a interpretação e o imageamento da seção sísmica temporal. Neste trabalho, estudamos a atenuação de múltiplas em seções sintéticas fonte-comum (FC) através da comparação de dois métodos. O primeiro método resulta da combinação das técnicas Wiener-Hopf-Levinson de predição (WHLP) e o de empilhamento superfície-de-reflexão-comum (CRS), e denominando WHLP-CRS, onde o operador é desenhado exclusivamente no domínio do tempo-espaço. O segundo método utilizado é o filtro de velocidade (ω-k) aplicado após o empilhamento superfície-de-reflexão (CRS), onde o operador é desenhado exclusivamente no domínio bidimensional de freqüência temporal-espacial. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, e utiliza o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, que são usadas para calcular o operador WHLP-CRS. O cálculo do filtroω-k é realizado no domínio da freqüência temporal-espacial, onde os eventos são selecionados para corte ou passagem. O filtro (ω-k) é classificado como filtro de corte, com alteração de amplitude, mas não de fase, e limites práticos são impostos pela amostragem tempo-espaço. Em termos práticos, concluímos que, para o caso de múltiplas, os eventos separados no domínio x-t não necessariamente se separam no domínio ω-k, o que dificulta o desenho de um operador ω-k semelhante em performance ao operador x-t.
Resumo:
Este trabalho representa um estudo de dispersão da componente vertical da onda de superfície de Rayleigh com trajetórias na plataforma Sulamericana. Os registros utilizados são provenientes das estações localizadas no território Brasileiro; sendo a do Rio de Janeiro (RDJ), a de Brasília (BDF), a de Caicó (CAI) e a de Belém (BEB), pois estas são as únicas estações sismológicas no Brasil que têm sensores de período longo e que servem para o estudo de dispersão no intervalo de 4 a 50 segundos, aqui realizados. Os terremotos utilizados estão localizados ao longo da parte leste da cadeia Andina e dentro da plataforma Sulamericana com trajetórias tipicamente continental. Foram selecionados 34 eventos com a utilização dos seguintes critérios práticos: a localização, a magnitude mb e a profundidade, ocorridos durante o período de Janeiro de 1978 até Junho de 1987. O estudo de dispersão aqui abordado significa a determinação da velocidade de grupo e das amplitudes espectrais correspondentes aos harmônicos fundamental e primeiro superior. Normalmente os harmônicos de ordem segunda ou maior são raramente disponíveis na observação. Dois tipos de medidas foram feitas: (i) velocidade de grupo vs. período e (ii) amplitude vs. período. Os estudos de dispersão são fundamentais para determinação da estrutura da crosta e manto superior que estão diretamente relacionados com os fenômenos geológicos. Neste trabalho, regionalização é definida como a identificação das diferentes formas de curvas de dispersão, que estão relacionadas com as trajetórias epicentro-estação ao longo da plataforma Sulamericana e que venham ter uma correlação geológica como está descrito no item 4.3 deste trabalho. A distribuição dos epicentros se faz desde o extremo sul da Argentina até o extremo norte da Venezuela, objetivando iniciar com este trabalho uma sistemática voltada aos estudos de regionalização da plataforma Sulamericana na nossa instituição. Neste trabalho foram observados três tipos distintos de curvas em 27 trajetórias e agrupadas por famílias 1,2 e 3 respectivamente, onde procurou-se correlacionar suas diferentes formas com a geologia regional da plataforma Sulamericana. A obtenção da curva de dispersão foi feita através da técnica do filtro múltiplo (Dziewonski et al, 1969). Este filtro tem a propriedade de separar os harmônicos através das suas velocidades de grupo para cada frequência selecionada, e também de recuperar as amplitudes características dos harmônicos (Herrmann, 1973). O desenvolvimento teórico do filtro bem como suas limitações e forma de uso são tratados por Dziewonski et al (1972). Como parte do trabalho há a implantação, adaptações e o desenvolvimento de parte do fluxograma do filtro múltiplo, bem como a estruturação da digitalização dos dados para o processamento e interpretação não-automática dos resultados do processamento.