968 resultados para Empilhamento PMC
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
A simulação de uma seção sísmica de afastamento nulo (AN) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhor a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda, recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Também, seguindo este novo conceito de imageamento sísmico está surgindo um método para simular seções com afastamento comum (AC) a partir de dados de cobertura múltipla usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento finito. Esta nova aproximação dos tempos de trânsito depende de cinco atributos cinemáticos. Neste trabalho, a partir da aproximação dos tempos de trânsito paraxiais em relação a um raio central com afastamento finito, derivamos uma nova equação do tempo de trânsito usando a condição de um ponto difrator em profundidade, reduzindo a equação original para quatro parâmetros. Para ambas aproximações (reflexão e difração), mostramos a superfície de empilhamento SRC com afastamento finito (SRC-AF). Considerando um modelo sintético, realizamos um estudo comparativo das aproximações dos tempos de trânsito para as quatro configurações sísmicas (fonte comum (FC), receptor comum (RC), ponto-médio-comum (PMC) e afastamento comum (AC)). Para analisar o comportamento do operador SRC-AF, quando este é perturbado, discutimos sua sensibilidade em relação a cada um dos cinco parâmetros (K1, K2, K3, βS e βG). Esta análise de sensibilidade é realizada em duas formas: Sensibilidade através da primeira derivada e Sensibilidade no Empilhamento SRC-AF. Após realizar a análise de sensibilidade utilizamos uma nova condição, K2 = 0 e assim, obtemos uma nova aproximação, agora dependente de três parâmetros. Usando essas aproximações hiperbólicas (em função de cinco, quatro e três parâmetros), propomos um algoritmo para a simulação de seções AC a partir de dados de cobertura múltipla. Finalmente, é apresentado um estudo da zona de Fresnel, com o objetivo de determinar a delimitação da abertura da superfície de empilhamento SRC-AF.
Resumo:
Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias).
Resumo:
Composite laminates with plies in different directions finely dispersed are classified as homogenized. The expected benefits of homogenization include increased mechanical strength, toughness and resistance to delamination. The objective of this study was to evaluate the effect of stacking sequence on the tensile strength of laminates. Composite plates were fabricated using unidirectional layers of carbon/epoxy prepreg with configurations [903/303/-303]S and [90/30/-30]3S. Specimens were subjected to tensile and open hole tension (OHT) tests. According to the experimental results, the mean values of strength for the homogenized laminates [90/30/-30]3S were 140% and 120% greater for tensile and OHT tests, respectively, as compared to laminates with configuration [903/303/-303]S. The increase in tensile strength for more homogenized laminates was associated with the increment in interlaminar interfaces, which requires more energy to produce delamination, and the more complicated crack propagation through plies with different orientations. OHT strength was not affected by the presence of the hole due to the predominance of the interlaminar shear stress in relation to the stress concentration produced by the hole
Resumo:
The seismic method is of extreme importance in geophysics. Mainly associated with oil exploration, this line of research focuses most of all investment in this area. The acquisition, processing and interpretation of seismic data are the parts that instantiate a seismic study. Seismic processing in particular is focused on the imaging that represents the geological structures in subsurface. Seismic processing has evolved significantly in recent decades due to the demands of the oil industry, and also due to the technological advances of hardware that achieved higher storage and digital information processing capabilities, which enabled the development of more sophisticated processing algorithms such as the ones that use of parallel architectures. One of the most important steps in seismic processing is imaging. Migration of seismic data is one of the techniques used for imaging, with the goal of obtaining a seismic section image that represents the geological structures the most accurately and faithfully as possible. The result of migration is a 2D or 3D image which it is possible to identify faults and salt domes among other structures of interest, such as potential hydrocarbon reservoirs. However, a migration fulfilled with quality and accuracy may be a long time consuming process, due to the mathematical algorithm heuristics and the extensive amount of data inputs and outputs involved in this process, which may take days, weeks and even months of uninterrupted execution on the supercomputers, representing large computational and financial costs, that could derail the implementation of these methods. Aiming at performance improvement, this work conducted the core parallelization of a Reverse Time Migration (RTM) algorithm, using the parallel programming model Open Multi-Processing (OpenMP), due to the large computational effort required by this migration technique. Furthermore, analyzes such as speedup, efficiency were performed, and ultimately, the identification of the algorithmic scalability degree with respect to the technological advancement expected by future processors
Resumo:
O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
O Feixe Gaussiano (FG) é uma solução assintótica da equação da elastodinâmica na vizinhança paraxial de um raio central, a qual se aproxima melhor do campo de ondas do que a aproximação de ordem zero da Teoria do Raio. A regularidade do FG na descrição do campo de ondas, assim como a sua elevada precisão em algumas regiões singulares do meio de propagação, proporciona uma forte alternativa na solução de problemas de modelagem e imageamento sísmicos. Nesta Tese, apresenta-se um novo procedimento de migração sísmica pré-empilhamento em profundidade com amplitudes verdadeiras, que combina a flexibilidade da migração tipo Kirchhoff e a robustez da migração baseada na utilização de Feixes Gaussianos para a representação do campo de ondas. O algoritmo de migração proposto é constituído por dois processos de empilhamento: o primeiro é o empilhamento de feixes (“beam stack”) aplicado a subconjuntos de dados sísmicos multiplicados por uma função peso definida de modo que o operador de empilhamento tenha a mesma forma da integral de superposição de Feixes Gaussianos; o segundo empilhamento corresponde à migração Kirchhoff tendo como entrada os dados resultantes do primeiro empilhamento. Pelo exposto justifica-se a denominação migração Kirchhoff-Gaussian-Beam (KGB). As principais características que diferenciam a migração KGB, durante a realização do primeiro empilhamento, de outros métodos de migração que também utilizam a teoria dos Feixes Gaussianos, são o uso da primeira zona de Fresnel projetada para limitar a largura do feixe e a utilização, no empilhamento do feixe, de uma aproximação de segunda ordem do tempo de trânsito de reflexão. Como exemplos são apresentadas aplicações a dados sintéticos para modelos bidimensionais (2-D) e tridimensionais (3-D), correspondentes aos modelos Marmousi e domo de sal da SEG/EAGE, respectivamente.
Resumo:
A teoria dos feixes gaussianos foi introduzida na literatura sísmica no início dos anos 80 por pesquisadores russos e tchecos, e foi originalmente utilizada no cálculo do campo de ondas eletromagnéticas, baseado na teoria escalar da difração. Na teoria dos feixes gaussianos, o campo de ondas sísmicas é obtido por uma integral, cujo o integrando é constituído de duas partes, a saber: (1) as amplitudes dos campos das ondas na vizinhança do ponto de observação e (2) a função fase de cada um desses campos de ondas, que neste caso é representada por um tempo de trânsito paraxial complexo. Como ferramenta de imageamento, mais precisamente como operador de migração, os primeiros trabalhos usando feixes gaussianos datam do final da década de 80 e início dos anos 90. A regularidade dos campos de ondas descritos pelos feixes gaussianos, além de sua alta precisão em regiões singulares do modelo de velocidades, tornaram o uso de feixes gaussianos como uma alternativa híbrida viável para a migração. Nesse trabalho, unimos a flexibilidade da migração tipo Kirchhoff em profundidade em verdadeira amplitude com a regularidade da descrição do campo de ondas, representado pela sobreposição de feixes gaussianos. Como forma de controlar de forma estável quantidades usadas na construção de feixes gaussianos, utilizamos informações advindas do volume de Fresnel, mais precisamente a zona de Fresnel ao redor do ponto de reflexão e a zona de Fresnel projetada, localizada ao redor do ponto de registro do sismograma e cuja a informação se encontra nas curvas de reflexão de dados sísmico. Nosso processo de migração pode ser chamado como uma migração Kirchhoff em verdadeira amplitude usando um operador de feixes gaussianos.
Resumo:
O método de migração do tipo Kirchhoff se apresenta na literatura como uma das ferramentas mais importantes de todo o processamento sísmico, servindo de base para a resolução de outros problemas de imageamento, devido ao um menor custo computacional em relação aos métodos que tem por base a solução numérica da equação da onda. No caso da aplicação em três dimensões (3D), mesmo a migração do tipo Kirchhoff torna-se dispendiosa, no que se refere aos requisitos computacionais e até mesmo numéricos para sua efetiva aplicação. Desta maneira, no presente trabalho, objetivando produzir resultados com uma razão sinal/ruído maior e um menor esforço computacional, foi utilizado uma simplificação do meio denominado 2.5D, baseado nos fundamentos teóricos da propagação de feixes gaussianos. Assim, tendo como base o operador integral com feixes gaussianos desenvolvido por Ferreira e Cruz (2009), foi derivado um novo operador integral de superposição de campos paraxiais (feixes gaussianos), o mesmo foi inserido no núcleo do operador integral de migração Kirchhoff convencional em verdadeira amplitude, para a situação 2,5D, definindo desta maneira um novo operador de migração do tipo Kirchhoff para a classe pré-empilhamento em verdadeira amplitude 2.5D (KGB,do inglês Kirchhoff-Gausian-Beam). Posteriormente, tal operador foi particularizado para as configurações de medida afastamento comum (CO, do inglês common offset) e ângulo de reflexão comum (CA, do inglês common angle), ressaltando ainda, que na presente Tese foi também idealizada uma espécie de flexibilização do operador integral de superposição de feixes gaussianos, no que concerne a sua aplicação em mais de um domínio, quais sejam, afastamento comum e fonte comum. Nesta Tese são feitas aplicações de dados sintéticos originados a partir de um modelo anticlinal.
Resumo:
O Feixe Gaussiano (FG) é uma solução assintótica da equação da elastodinâmica na vizinhança paraxial de um raio central, a qual se aproxima melhor do campo de ondas do que a aproximação de ordem zero da Teoria do Raio. A regularidade do FG na descrição do campo de ondas, assim como a sua elevada precisão em algumas regiões singulares do meio de propagação, proporciona uma forte alternativa no imageamento sísmicos. Nesta dissertação, apresenta-se um novo procedimento de migração sísmica pré-empilhamento em profundidade com amplitudes verdadeiras, que combina a flexibilidade da migração tipo Kirchhoff e a robustez da migração baseada na utilização de Feixes Gaussianos para a representação do campo de ondas. O algoritmo de migração proposto é constituído por dois processos de empilhamento: o primeiro é o empilhamento de feixes (“beam stack”) aplicado a subconjuntos de dados sísmicos multiplicados por uma função peso definida de modo que o operador de empilhamento tenha a mesma forma da integral de superposição de Feixes Gaussianos; o segundo empilhamento corresponde à migração Kirchhoff tendo como entrada os dados resultantes do primeiro empilhamento. Pelo exposto justifica-se a denominação migração Kirchhoff-Gaussian-Beam (KGB).Afim de comparar os métodos Kirchhoff e KGB com respeito à sensibilidade em relação ao comprimento da discretização, aplicamos no conjunto de dados conhecido como Marmousi 2-D quatro grids de velocidade, ou seja, 60m, 80m 100m e 150m. Como resultado, temos que ambos os métodos apresentam uma imagem muito melhor para o menor intervalo de discretização da malha de velocidade. O espectro de amplitude das seções migradas nos fornece o conteúdo de frequência espacial das seções das imagens obtidas.
Resumo:
No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.