249 resultados para Prospecção geofísica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Propomos um novo método de migração em profundidade baseado na solução da equação da onda com densidade constante no domínio da freqüência. Uma aproximação de Padé complexa é usada para aproximar o operador de evolução aplicado na extrapolação do campo de ondas. Esse método reduz as imprecisões e instabilidades devido às ondas evanescentes e produz imagens com menos ruídos numéricos que aquelas obtidas usando-se a aproximação de Padé real para o operador exponencial, principalmente em meios com fortes variações de velocidades. Testes em dados de afastamento nulo do modelo de sal SEG/EAGE e nos dados de tiro comum 2-D Marmousi foram realizados. Os resultados obtidos mostram que o método de migração proposto consegue lidar com fortes variações laterais e também tem uma boa resposta para refletores com mergulhos íngremes. Os resultados foram comparados àqueles resultados obtidos com os métodos split-step Fourier (SSF), phase shift plus interpolarion (PSPI) e Fourier diferenças-finitas (FFD).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os coeficientes de reflexão de onda qP em uma interface plana que separa dois meios anisotrópicos dependem dos parâmetros elásticos dos meios envolvidos de maneira não linear. Aproximações lineares para a refletividade de ondas qP pressupondo fraco contraste de impedância e fraca anisotropia levam a uma forma simples para se fazer à análise de AVO/AVD. Neste trabalho a solução das equações de Zoeppritz é rescrita explicitamente em função de matrizes de impedância e polarização. Além disso, utilizando-se esta abordagem, é apresentada uma metodologia geral mais simples para se obter as formas linearizadas. Estas formas linearizadas para os coeficientes de reflexão da onda qP e das ondas convertidas para uma onda qP incidente apresentam resultados muito próximos da formulação exata para ângulos de incidência menores que 30° considerando-se um contraste de impedância moderado e anisotropia em limites geologicamente aceitáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste tutorial apresentamos uma revisão da deconvolução de Euler que consiste de três partes. Na primeira parte, recordamos o papel da clássica formulação da deconvolução de Euler 2D e 3D como um método para localizar automaticamente fontes de campos potenciais anômalas e apontamos as dificuldades desta formulação: a presença de uma indesejável nuvem de soluções, o critério empírico usado para determinar o índice estrutural (um parâmetro relacionado com a natureza da fonte anômala), a exeqüibilidade da aplicação da deconvolução de Euler a levantamentos magnéticos terrestres, e a determinação do mergulho e do contraste de susceptibilidade magnética de contatos geológicos (ou o produto do contraste de susceptibilidade e a espessura quando aplicado a dique fino). Na segunda parte, apresentamos as recentes melhorias objetivando minimizar algumas dificuldades apresentadas na primeira parte deste tutorial. Entre estas melhorias incluem-se: i) a seleção das soluções essencialmente associadas com observações apresentando alta razão sinal-ruído; ii) o uso da correlação entre a estimativa do nível de base da anomalia e a própria anomalia observada ou a combinação da deconvolução de Euler com o sinal analítico para determinação do índice estrutural; iii) a combinação dos resultados de (i) e (ii), permitindo estimar o índice estrutural independentemente do número de soluções; desta forma, um menor número de observações (tal como em levantamentos terrestres) pode ser usado; iv) a introdução de equações adicionais independentes da equação de Euler que permitem estimar o mergulho e o contraste de susceptibilidade das fontes magnéticas 2D. Na terceira parte apresentaremos um prognóstico sobre futuros desenvolvimentos a curto e médio prazo envolvendo a deconvolução de Euler. As principais perspectivas são: i) novos ataques aos problemas selecionados na segunda parte deste tutorial; ii) desenvolvimento de métodos que permitam considerar interferências de fontes localizadas ao lado ou acima da fonte principal, e iii) uso das estimativas de localização da fonte anômala produzidas pela deconvolução de Euler como vínculos em métodos de inversão para obter a delineação das fontes em um ambiente computacional amigável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi desenvolvido um estudo da subsuperfície rasa para investigar a possibilidade de contaminação do subsolo por líquidos usados no tratamento de couros. O estudo foi realizado na área da indústria Couro do Norte, Bairro de Maracacuera, no Distrito Industrial de Icoaraci em Belém-PA. As metodologias geofísicas utilizadas foram: eletrorresistividade (na forma de imageamento e através de sondagens verticais), potencial espontâneo, eletromagnético (slingram) e radar de penetração no solo (GPR). A interpretação conjunta dos dados geofísicos indicou a direção do fluxo subterrâneo e uma pluma de contaminação rasa na área do estudo causada provavelmente pelo despejo dos efluentes do curtume Couro do Norte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta resultados práticos de uma atenção sistemática dada ao processamento e à interpretação sísmica de algumas linhas terrestres do conjunto de dados do gráben do Tacutu (Brasil), sobre os quais foram aplicadas etapas fundamentais do sistema WIT de imageamento do empilhamento CRS (Superfície de Reflexão Comum) vinculado a dados. Como resultado, esperamos estabelecer um fluxograma para a reavaliação sísmica de bacias sedimentares. Fundamentado nos atributos de frente de onda resultantes do empilhamento CRS, um macro-modelo suave de velocidades foi obtido através de inversão tomográfica. Usando este macro-modelo, foi realizado uma migração à profundidade pré- e pós-empilhamento. Além disso, outras técnicas baseadas no empilhamento CRS foram realizadas em paralelo como correção estática residual e migração de abertura-limitada baseada na zona de Fresnel projetada. Uma interpretação geológica sobre as seções empilhadas e migradas foi esboçada. A partir dos detalhes visuais dos painéis é possível interpretar desconformidades, afinamentos, um anticlinal principal falhado com conjuntos de horstes e grábens. Também, uma parte da linha selecionada precisa de processamento mais detalhado para evidenciar melhor qualquer estrutura presente na subsuperfície.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo do desempenho do operador deconvolucional WHL na compressão do pulso-fonte sísmico, sob condições especiais de fase não-mínima e da densidade de eventos no traço, como casos advogados para dados reais e processamento em rotina. O método de ataque ao problema construído é centrado no conteúdo da informação da função autocorrelação submetida a diferentes condições: (a) de truncamento e tipo de janelas; (b) das características da fase do operador (se mínima ou não-mínima); (c) da medida de qualidade; (d) do nível de embranquecimento; (e) do ruído presente e da equalização; (f) do balanceamento do traço; (g) dos princípios físicos da propagação expressos e limitados pelo modelo convolutional. Os resultados obtidos são apenas na forma numérica, organizados na forma de álbuns com dificuldades crescentes, e demonstram como o uso de janelas na autocorrelação serve para diagnosticar e melhorar a performance dos operadores. Concluímos que muitas perguntas ainda surgem quando técnicas de deconvolução são aplicadas a seções sísmicas de bacias sedimentares, e que o modelo de Goupillaud é conveniente para simulações e análises devido a sua descrição matemática simples e completa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata da aplicação do filtro Kalman-Bucy (FKB), organizado como uma deconvolução (FKBD), para extração da função refletividade a partir de dados sísmicos. Isto significa que o processo é descrito como estocástico não-estacionário, e corresponde a uma generalização da teoria de Wiener-Kolmogorov. A descrição matemática do FKB conserva a relação com a do filtro Wiener-Hopf (FWH) que trata da contra-parte com um processo estocástico estacionário. A estratégia de ataque ao problema é estruturada em partes: (a) Critério de otimização; (b) Conhecimento a priori; (c) Algoritmo; e (d) Qualidade. O conhecimento a priori inclui o modelo convolucional, e estabelece estatísticas para as suas componentes do modelo (pulso-fonte efetivo, função refletividade, ruídos geológico e local). Para demostrar a versatilidade, a aplicabilidade e limitações do método, elaboramos experimentos sistemáticos de deconvolução sob várias situações de nível de ruídos aditivos e de pulso-fonte efetivo. Demonstramos, em primeiro lugar, a necessidade de filtros equalizadores e, em segundo lugar, que o fator de coerência espectral é uma boa medida numérica da qualidade do processo. Justificamos também o presente estudo para a aplicação em dados reais, como exemplificado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A leishmaniose tegumentar (LT) encontra-se em expansão no Estado do Pará, Brasil. Juruti é um dos 143 municípios desse Estado e atualmente cenário de grandes transformações ambientais devido à mineração de bauxita, o que poderá influenciar o padrão de transmissão. Objetivo: Este estudo buscou elucidar aspectos epidemiológicos relevantes para o controle da LT em Juruti. Materiais e Métodos: A frequência de LT e o perfil dos pacientes no hospital municipal "Francisco Barros" foram determinados de janeiro a dezembro/2007. Espécies de flebotomíneos silvestres existentes no entorno de uma área de prospecção da bauxita foram também descritas, durante levantamento entomológico em janeiro/2008 (armadilha Shannon/18h às 20h/2 noites). Em 21 indivíduos, portadores de lesão cutânea suspeita de LT, biópsias de pele foram realizadas entre fevereiro e junho de 2007. Neste grupo procedeu-se ao diagnóstico parasitológico (esfregaço corado e cultura), molecular e teste intradérmico de Montenegro. Utilizaram-se sondas de DNA ribossomal (PCR-SSUrDNA) gênero específicas (S4, S12; S17, S18) e de G6PD, para distinguir o subgênero Viannia (ISVC, ISVA: ISVC, ISVG) e a espécie L. (V.) braziliensis (ISVC, ISVA; ISVC, ISVB). Resultados: No ano de 2007 foram confirmados 42 casos novos de LT, com média mensal inferior a quatro (3,5 ± 0,8), maior frequência em julho (11) e menor em junho e novembro (0). A maioria dos pacientes foi de homens (41/42, 98%) com menos de 20 anos (<10 anos: 30%; 10-20: 57%; 20-40: 12%). A maioria também residia em localidades rurais (33/42, 79%), incluindo áreas impactadas pela mineração (19/42, 45%), e exercia atividades de risco (28/42, 67%). Doze eram funcionários de empresas (29%). A análise molecular das 21 amostras identificou 12 resultados positivos para o gênero Leishmania (57%), sendo 11 (52%) parasitologicamente confirmados. A PCRG6PD identificou 75% das amostras como sendo L. (V.) braziliensis. As demais (3/12, 25%) não hibridizaram com os oligonucleotídeos da PCR-G6PD e, por isso, os produtos da reação de nested-PCR SSUrDNA foram clonados e sequenciados, confirmando que se tratavam de Leishmania (Viannia) sp. Apenas 9/12 (75%) casos confirmados pelos métodos parasitológico e/ou olecular tiveram reações de hipersensibilidade tardia em resposta ao antígeno de Montenegro, cujos diâmetros variaram de 7 a 40mm (16,3 ± 3,2). Capturaram-se 105 flebotomíneos de 13 espécies nas seguintes frequências: 1- Lutzomyia (Ps.) geniculata (23, 22%), 2- Lutzomyia (Ps.) paraensis (21, 20%), 3- Lutzomyia (Ps.) complexa (18, 17%), 4-Lutzomyia (Ps.) davisi (10, 10%), 5- Lutzomyia (N.) flaviscutellata (13, 13%) e outras oito espécies (20, 18%). Discussão: Espécies de Leishmania do subgênero Viannia, sobretudo L. (V.) braziliensis predominam em Juruti, o que é compatível com o extenso diâmetro das reações cutâneas observadas ao antígeno de Montenegro e com os relatos comuns de persistência e recidiva, apesar do tratamento específico. Entre os flebotomíneos antropófilos destacam-se L. (Ps.) complexa (17%) e L. (Ps.) flaviscutellata (13%) por serem vetores de L. (V.) braziliensis e L. (L.) amazonensis respectivamente, associadas às formas severas da LT humana. Conclusão: Medidas de controle em Juruti devem priorizar a redução da morbidade, diagnóstico precoce, busca ativa de LT humana, vigilância entomológica e de microambientes no entorno da área de impacto de mineração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise dos perfis petrofísicos de poço aberto possui um papel de fundamental importância para os estudos geológicos e geofísicos, no que se refere a obtenção de um maior conhecimento da subsuperfície, bem como para a identificação e exploração de depósitos minerais e petrolíferos. Alguns tópicos importantes da interpretação geológica dos perfis como a determinação de interfaces, a identificação mineralógica e a correlação poço-a-poço são extremamente tediosos e dispendem na sua execução uma grande carga horária. A automação destes procedimentos é em princípio bastante complicada, mas necessária, pois permitirá um melhor aproveitamento do tempo de trabalho do geólogo de produção e do intérprete de perfis. As redes neuronais artificiais apresentam uma boa performance para a solução destes tipos de problema, inclusive nos casos nos quais os algoritmos sequenciais apresentam dificuldades. Mostrar-se-á nesta tese que as redes neuronais artificiais podem ser utilizadas eficientemente para a automação desses procedimentos da interpretação geológica dos perfis. Apresentamos detalhadamente as novas arquiteturas e as aplicações sobre dados sintéticos e perfis reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise de AVO constitui-se, atualmente, numa importante ferramenta para a extração de informações litológicas a partir de dados sísmicos, através do uso dos contrastes de impedância acústica nas interfaces que separam diferentes litologias. A hipótese usual de isotropia deixa de valer, em muitos casos, após o advento de arranjos de grande afastamento e geofones com multi-superfície. Para a interpretação destes dados, a análise de AVO deve incluir anisotropia. Este trabalho apresenta uma teoria de AVO e resultados numéricos para um meio anisotrópico estratificado. Esta tese contém três contribuições. Inicialmente, é apresentada uma nova abordagem para o estudo da reflexão-transmissão através de interface plana que separam dois meios anisotrópicos com pelo menos um plano horizontal de simetria especular. As equações de Zoeppritz são generalizadas para incluir anisotropia, através da introdução das chamadas matrizes de impedância, o que simplifica bastante o formalismo anterior. Posteriormente, é descrito o estudo da reflexão de ondas P através de interface entre um meio isotrópico e outro transversalmente isotrópico (TI). É mostrado que a reflexão de ondas P, neste tipo de experimento, não fornece informações sobre a presença de anisotropia do semi-espaço TI, pelo menos em incidência pré-crítica. Finalmente, é discutido o comportamento da reflexão e transmissão de pulsos, em incidência pós-crítica, através de meios anisotrópicos estratificados. Observa-se que o comportamento pós-crítico dos pulsos espalhados carregam valiosa informações sobre a anisotropia dos meios atravessados por eles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.