847 resultados para Seismic events


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar os resultados da modelagem sísmica em meios com fortes descontinuidades de propriedades físicas, com ênfase na existência de difrações e múltiplas reflexões, tendo a Bacia do Amazonas como referência à modelagem. As condições de estabilidade e de fronteiras utilizadas no cálculo do campo de ondas sísmicas foram analisadas numericamente pelo método das diferenças finitas, visando melhor compreensão e controle da interpretação de dados sísmicos. A geologia da Bacia do Amazonas é constituída por rochas sedimentares depositadas desde o Ordoviciano até o Recente que atingem espessuras da ordem de 5 km. Os corpos de diabásio, presentes entre os sedimentos paleozóicos, estão dispostos na forma de soleiras, alcançam espessuras de centenas de metros e perfazem um volume total de aproximadamente 90000 Km³. A ocorrência de tais estruturas é responsável pela existência de reflexões múltiplas durante a propagação da onda sísmica o que impossibilita melhor interpretação dos horizontes refletores que se encontram abaixo destas soleiras. Para representar situações geológicas desse tipo foram usados um modelo (sintético) acústico de velocidades e um código computacional elaborado via método das diferenças finitas com aproximação de quarta ordem no espaço e no tempo da equação da onda. A aplicação dos métodos de diferenças finitas para o estudo de propagação de ondas sísmicas melhorou a compreensão sobre a propagação em meios onde existem heterogeneidades significativas, tendo como resultado boa resolução na interpretação dos eventos de reflexão sísmica em áreas de interesse. Como resultado dos experimentos numéricos realizados em meio de geologia complexa, foi observada a influência significativa das reflexões múltiplas devido à camada de alta velocidade, isto provocou maior perda de energia e dificultou a interpretação dos alvos. Por esta razão recomenda-se a integração de dados de superfície com os de poço, com o objetivo de obter melhor imagem dos alvos abaixo das soleiras de diabásio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A migração com amplitudes verdadeiras de dados de reflexão sísmica, em profundidade ou em tempo, possibilita que seja obtida uma medida dos coeficientes de reflexão dos chamados eventos de reflexão primária. Estes eventos são constituídos, por exemplo, pelas reflexões de ondas longitudinais P-P em refletores de curvaturas arbitrárias e suaves. Um dos métodos mais conhecido é o chamado migração de Kirchhoff, através do qual a imagem sísmica é produzida pela integração do campo de ondas sísmicas, utilizando-se superfícies de difrações, denominadas de Superfícies de Huygens. A fim de se obter uma estimativa dos coeficientes de reflexão durante a migração, isto é a correção do efeito do espalhamento geométrico, utiliza-se uma função peso no operador integral de migração. A obtenção desta função peso é feita pela solução assintótica da integral em pontos estacionários. Tanto no cálculo dos tempos de trânsito como na determinação da função peso, necessita-se do traçamento de raios, o que torna a migração em situações de forte heterogeneidade da propriedade física um processo com alto custo computacional. Neste trabalho é apresentado um algoritmo de migração em profundidade com amplitudes verdadeiras, para o caso em que se tem uma fonte sísmica pontual, sendo o modelo de velocidades em subsuperfície representado por uma função que varia em duas dimensões, e constante na terceira dimensão. Esta situação, conhecida como modelo dois-e-meio dimensional (2,5-D), possui características típicas de muitas situações de interesse na exploração do petróleo, como é o caso da aquisição de dados sísmicos 2-D com receptores ao longo de uma linha sísmica e fonte sísmica 3-D. Em particular, é dada ênfase ao caso em que a velocidade de propagação da onda sísmica varia linearmente com a profundidade. Outro tópico de grande importância abordado nesse trabalho diz respeito ao método de inversão sísmica denominado empilhamento duplo de difrações. Através do quociente de dois empilhamentos com pesos apropriados, pode-se determinar propriedades físicas e parâmetros geométricos relacionados com a trajetória do raio refletido, os quais podem ser utilizados a posteriori no processamento dos dados sísmicos, visando por exemplo, a análise de amplitudes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta resultados práticos de uma atenção sistemática dada ao processamento e à interpretação sísmica de algumas linhas terrestres do conjunto de dados do gráben do Tacutu (Brasil), sobre os quais foram aplicadas etapas fundamentais do sistema WIT de imageamento do empilhamento CRS (Superfície de Reflexão Comum) vinculado a dados. Como resultado, esperamos estabelecer um fluxograma para a reavaliação sísmica de bacias sedimentares. Fundamentado nos atributos de frente de onda resultantes do empilhamento CRS, um macro-modelo suave de velocidades foi obtido através de inversão tomográfica. Usando este macro-modelo, foi realizado uma migração à profundidade pré- e pós-empilhamento. Além disso, outras técnicas baseadas no empilhamento CRS foram realizadas em paralelo como correção estática residual e migração de abertura-limitada baseada na zona de Fresnel projetada. Uma interpretação geológica sobre as seções empilhadas e migradas foi esboçada. A partir dos detalhes visuais dos painéis é possível interpretar desconformidades, afinamentos, um anticlinal principal falhado com conjuntos de horstes e grábens. Também, uma parte da linha selecionada precisa de processamento mais detalhado para evidenciar melhor qualquer estrutura presente na subsuperfície.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo do desempenho do operador deconvolucional WHL na compressão do pulso-fonte sísmico, sob condições especiais de fase não-mínima e da densidade de eventos no traço, como casos advogados para dados reais e processamento em rotina. O método de ataque ao problema construído é centrado no conteúdo da informação da função autocorrelação submetida a diferentes condições: (a) de truncamento e tipo de janelas; (b) das características da fase do operador (se mínima ou não-mínima); (c) da medida de qualidade; (d) do nível de embranquecimento; (e) do ruído presente e da equalização; (f) do balanceamento do traço; (g) dos princípios físicos da propagação expressos e limitados pelo modelo convolutional. Os resultados obtidos são apenas na forma numérica, organizados na forma de álbuns com dificuldades crescentes, e demonstram como o uso de janelas na autocorrelação serve para diagnosticar e melhorar a performance dos operadores. Concluímos que muitas perguntas ainda surgem quando técnicas de deconvolução são aplicadas a seções sísmicas de bacias sedimentares, e que o modelo de Goupillaud é conveniente para simulações e análises devido a sua descrição matemática simples e completa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas bacias sedimentares da região Amazônica, a geração e o acúmulo de hidrocarboneto estão relacionados com a presença das soleiras de diabásio. Estas rochas magmáticas intrusivas possuem grandes contrastes de impedância com as rochas sedimentares encaixantes, resultando em múltiplas externas e internas, com amplitudes semelhantes às das reflexões sísmicas primárias. Estas múltiplas podem predominar sobre as informações oriundas de interfaces mais profundas, dificultando o processamento, a interpretação e o imageamento da seção de sísmica. O objetivo da presente tese é realizar a atenuação de múltiplas em seções sintéticas fontecomum (CS), através da combinação dos métodos Wiener-Hopf-Levinson de predição (WHLP) e o do empilhamento superfície-de-reflexão-comum (CRS), aqui denominando pela sigla WHLPCRS. O operador de deconvolução é calculado com as amplitudes reais do sinal sísmico e traço-a-traço, o que consideramos como uma melhor eficiência para a operação de atenuação. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, utilizando o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, e usados para calcular o operador WHLP-CRS. No desenvolvimento do presente trabalho, visamos evitar a inconveniência da seção processada ZO; desenhar e aplicar operadores na configuração CS; e estender o método WHL para camadas curvas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de estereotomografia é estendido para meios com anisotropia arbitrária e implementado para meios com anisotropia elíptica e anelíptica. Os modelos elípticos e anelípticos apresentam somente três parâmetros. Isto faz com que eles sejam menos sensíveis a ambiguidade, causada pela cobertura limitada dos raios em experimentos sísmicos de superfície e VSP, do que modelos transversalmente isotrópicos ou ortorrômbicos. As correspondentes aproximações para superfície de vagarosidade limita a validade desta implementação para eventos qP com anisotropia suave. Experimentos numéricos mostram o potencial e as limitações da estereotomografia para estimar macro modelos de velocidade adequados para o imageamento na presença de anisotropia e a importância dos eventos de transmissão de experimentos VSP de multiplo afastamento modelo para o sucesso desta abordagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo geral desenvolver uma metodologia sistemática para a inversão de dados de reflexão sísmica em arranjo ponto-médio-comum (PMC), partindo do caso 1D de variação vertical de velocidade e espessura que permite a obtenção de modelos de velocidades intervalares, vint,n, as espessuras intervalares, zn, e as velocidades média-quadrática, vRMS,n, em seções PMC individualizadas. Uma consequência disso é a transformação direta destes valores do tempo para profundidade. Como contribuição a análise de velocidade, foram desenvolvidos dois métodos para atacar o problema baseado na estimativa de velocidade intervalar. O primeiro método foi baseado na marcação manual em seções PMC, e inversão por ajuste de curvas no sentido dos quadrados-mínimos. O segundo método foi baseado na otimização da função semblance para se obter uma marcação automática. A metodologia combinou dois tipos de otimização: um Método Global (Método Price ou Simplex), e um Método Local (Gradiente de Segunda Ordem ou Conjugado), submetidos a informação à priori e vínculos. A marcação de eventos na seção tempo-distância faz parte dos processos de inversão, e os pontos marcados constituem os dados de entrada juntamente com as informações à priori do modelo a ser ajustado. A marcação deve, por princípio, evitar eventos que representem múltiplas, difrações e interseções, e numa seção pode ser feita mais de 50 marcações de eventos, enquanto que num mapa semblance não se consegue marcar mais de 10 eventos de reflexão. A aplicação deste trabalho é voltada a dados sísmicos de bacias sedimentares em ambientes marinhos para se obter uma distribuição de velocidades para a subsuperfície, onde o modelo plano-horizontal é aplicado em seções PMC individualizadas, e cuja solução pode ser usada como um modelo inicial em processos posteriores. Os dados reais da Bacia Marinha usados neste trabalho foram levantados pela PETROBRAS em 1985, e a linha sísmica selecionada foi a de número L5519 da Bacia do Camamu, e o PMC apresentado é a de número 237. A linha é composta de 1098 pontos de tiro, com arranjo unilateraldireito. O intervalo de amostragem é 4 ms. O espaçamento entre os geofones é 13,34 m com o primeiro geofone localizado a 300 m da fonte. O espaçamento entre as fontes é de 26,68 m. Como conclusão geral, o método de estimativa de velocidade intervalar apresentada neste trabalho fica como suporte alternativo ao processo de análise de velocidades, onde se faz necessário um controle sobre a sequência de inversão dos PMCs ao longo da linha sísmica para que a solução possa ser usada como modelo inicial ao imageamento, e posterior inversão tomográfica. Como etapas futuras, podemos propor trabalhos voltados direto e especificamente a análise de velocidade sísmica estendendo o caso 2D de otimização do semblance ao caso 3D, estender o presente estudo para o caso baseado na teoria do raio imagem com a finalidade de produzir um mapa continuo de velocidades para toda a seção sísmica de forma automática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A motivação geológica deste trabalho reside no imageamento de estruturas de bacias sedimentares da região Amazônica, onde a geração e o acúmulo de hidrocarboneto estão relacionados com a presença de soleiras de diabásio. A motivação sísmica reside no fato de que essas rochas intrusivas possuem grandes contrastes de impedância com a rocha encaixante, o que resulta em múltiplas, externas e internas, com amplitudes semelhantes as das primárias. O sinal sísmico das múltiplas podem predominar sobre o sinal das reflexões primárias oriundas de interfaces mais profundas, o que pode dificultar o processamento, a interpretação e o imageamento da seção sísmica temporal. Neste trabalho, estudamos a atenuação de múltiplas em seções sintéticas fonte-comum (FC) através da comparação de dois métodos. O primeiro método resulta da combinação das técnicas Wiener-Hopf-Levinson de predição (WHLP) e o de empilhamento superfície-de-reflexão-comum (CRS), e denominando WHLP-CRS, onde o operador é desenhado exclusivamente no domínio do tempo-espaço. O segundo método utilizado é o filtro de velocidade (ω-k) aplicado após o empilhamento superfície-de-reflexão (CRS), onde o operador é desenhado exclusivamente no domínio bidimensional de freqüência temporal-espacial. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, e utiliza o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, que são usadas para calcular o operador WHLP-CRS. O cálculo do filtroω-k é realizado no domínio da freqüência temporal-espacial, onde os eventos são selecionados para corte ou passagem. O filtro (ω-k) é classificado como filtro de corte, com alteração de amplitude, mas não de fase, e limites práticos são impostos pela amostragem tempo-espaço. Em termos práticos, concluímos que, para o caso de múltiplas, os eventos separados no domínio x-t não necessariamente se separam no domínio ω-k, o que dificulta o desenho de um operador ω-k semelhante em performance ao operador x-t.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A medição de parâmetros físicos de reservatórios se constitui de grande importância para a detecção de hidrocarbonetos. A obtenção destes parâmetros é realizado através de análise de amplitude com a determinação dos coeficientes de reflexão. Para isto, faz-se necessário a aplicação de técnicas especiais de processamento capazes de corrigir efeitos de divergência esférica. Um problema pode ser estabelecido através da seguinte questão: Qual o efeito relativamente mais importante como responsável pela atenuação de amplitudes, o espalhamento geométrico ou a perda por transmissividade? A justificativa desta pergunta reside em que a correção dinâmica teórica aplicada a dados reais visa exclusivamente o espalhamento geométrico. No entanto, a análise física do problema por diferentes direções põe a resposta em condições de dúvida, o que é interessante e contraditório com a prática. Uma resposta embasada mais fisicamente pode dar melhor subsídio a outros trabalhos em andamento. O presente trabalho visa o cálculo da divergência esférica segundo a teoria Newman-Gutenberg e corrigir sismogramas sintéticos calculados pelo método da refletividade. O modelo-teste é crostal para que se possa ter eventos de refração crítica além das reflexões e para, com isto, melhor orientar quanto à janela de aplicação da correção de divergência esférica o que resulta em obter o então denominado “verdadeiras amplitudes”. O meio simulado é formado por camadas plano-horizontais, homogêneas e isotrópicas. O método da refletividade é uma forma de solução da equação de onda para o referido modelo, o que torna possível um entendimento do problema em estudo. Para se chegar aos resultados obtidos foram calculados sismogramas sintéticos através do programa P-SV-SH desenvolvido por Sandmeier (1998), e curvas do espalhamento geométrico em função do tempo para o modelo estudado como descrito por Newman (1973). Demonstramos como uma das conclusões que a partir dos dados do modelo (velocidades, espessuras, densidades e profundidades) uma equação para a correção de espalhamento geométrico visando às “verdadeiras amplitudes” não é de fácil obtenção. O objetivo maior então deveria ser obter um painel da função de divergência esférica para corrigir as verdadeiras amplitudes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A determinação de um acurado modelo de velocidades é um requisito fundamental para a realização do imageamento sísmico. Métodos novos como a Estereotomografia préempilhamento e a Tomografia da onda NIP são ferramentas poderosas e bastante sugestivas para este propósito. Basicamente, a Estereotomografia pré-empilhamento se baseia no conceito de eventos localmente coerentes interpretados como reflexões primárias e associados com pares de segmentos de raios, que tem um mesmo ponto de reflexão em profundidade. Na Tomografia da onda NIP um evento sísmico é representado por uma onda hipotética NIP, que está relacionada a um ponto de reflexão em profundidade. Os atributos da onda NIP são determinados no decorrer do Empilhamento de Superfície de Reflexão Comum (empilhamento CRS). Este trabalho tem como objetivo, fazer um estudo comparativo de ambos os métodos de determinação do modelo de velocidades em profundidade. Assim, é realizada uma revisão dos fundamentos teóricos de ambos os métodos tomográficos, destacando as principais diferenças e aplicando estas aproximações em um dado sintético e um dado real marinho (linha sísmica 214-2660 da Bacia do Jequitinhonha). Para avaliar os modelos de velocidades encontrados pelas aproximações, foi utilizada a migração pré-empilhamento em profundidade do tipo Kirchhoff e também as famílias de imagem comum (CIG). Os resultados mostraram que ambos os métodos tomográficos fornecem modelos de velocidades representativos. Contudo, constatou-se que a estereotomografia tem melhor desempenho em meios com variações laterais de velocidades, porém, aplicável somente em dados pré-empilhados com alta razão sinal/ruído.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, estuda-se um novo método de inversão tomográfica de reflexão para a determinação de um modelo isotrópico e suave de velocidade por meio da aplicação, em dados sintéticos e reais, do programa Niptomo que é uma implementação do método de inversão tomográfica dos atributos cinemáticos da onda hipotética do ponto de incidência normal (PIN). Os dados de entrada para a inversão tomográfica, isto é, o tempo de trânsito e os atributos da onda PIN (raio de curvatura da frente de onda emergente e ângulo de emergência), são retirados de uma série de pontos escolhidos na seção afastamento nulo (AN) simulada, obtida pelo método de empilhamento por superfícies de reflexão comum (SRC). Normalmente, a escolha destes pontos na seção AN é realizada utilizando-se programas de picking automático, que identificam eventos localmente coerentes na seção sísmica com base nos parâmetros fornecidos pelo usuário. O picking é um dos processos mais críticos dos métodos de inversão tomográfica, pois a inclusão de dados de eventos que não sejam de reflexões primárias podem ser incluídos neste processo, prejudicando assim o modelo de velocidades a ser obtido pela inversão tomográfica. Este trabalho tem por objetivo de construir um programa de picking interativo para fornecer ao usuário o controle da escolha dos pontos de reflexões sísmicas primárias, cujos dados serão utilizados na inversão tomográfica. Os processos de picking e inversão tomográfica são aplicados nos dados sintéticos Marmousi e nos dados da linha sísmica 50-RL-90 da Bacia do Tacutu. Os resultados obtidos mostraram que o picking interativo para a escolha de pontos sobre eventos de reflexões primárias favorece na obtenção de um modelo de velocidade mais preciso.