59 resultados para Raio
Resumo:
Para a indústria do petróleo, a interpretação dos perfis de poço é a principal fonte de informação sobre a presença e quantificação de hidrocarbonetos em subsuperfície. Entretanto, em duas situações as novas tecnologias, tanto em termos do processo construtivo das ferramentas, quanto da transmissão dos dados não têm justificativa econômica, ensejando a utilização de um conjunto de perfis convencionais: reavaliações de campos maduros e avaliações de campos marginais. Os procedimentos de aquisição dos perfis convencionais podem alterar o valor da propriedade física bem como a localização dos limites verticais de uma camada rochosa. Este é um antigo problema na geofísica de poço – o paradoxo entre a resolução vertical e a profundidade de investigação de uma ferramenta de perfilagem. Hoje em dia, isto é contornado através da alta tecnologia na construção das novas ferramentas, entretanto, este problema ainda persiste no caso das ferramentas convencionais como, a ferramenta de raio gama natural (GR). Apresenta-se, neste trabalho, um novo método para atenuar as alterações induzidas no perfil pela ferramenta, através da integração do clássico modelo convolucional do perfil com as redes neurais recorrentes. Assume-se que um perfil de poço pode ser representado através da operação de convolução em profundidade entre a variação da propriedade física da rocha (perfil ideal) e uma função que representa a alteração produzida sobre a propriedade física, chamada como resposta vertical da ferramenta. Assim, desenvolve-se um processamento iterativo dos perfis, o qual atua na forma da operação de deconvolução, composto por três redes neurais recorrentes. A primeira visa estimar a resposta vertical da ferramenta; a segunda procura definir os limites verticais de cada camada rochosa e a última é construída para estimar o valor real da propriedade física. Este processamento é iniciado com uma estimativa externa tanto para o perfil ideal, quanto para a resposta vertical da ferramenta. Finalmente, mostram-se as melhorias na resolução vertical e na avaliação da propriedade física produzida por esta metodologia em perfis sintéticos e em perfis reais da formação Lagunillas, bacia do Lago Maracaibo, Venezuela.
Resumo:
As redes neurais artificiais têm provado serem uma poderosa técnica na resolução de uma grande variedade de problemas de otimização. Nesta dissertação é desenvolvida uma nova rede neural, tipo recorrente, sem realimentação (self-feedback loops) e sem neurônios ocultos, para o processamento do sinal sísmico, para fornecer a posição temporal, a polaridade e as amplitudes estimadas dos refletores sísmicos, representadas pelos seus coeficientes de reflexão. A principal característica dessa nova rede neural consiste no tipo de função de ativação utilizada, a qual permite três possíveis estados para o neurônio. Busca-se estimar a posição dos refletores sísmicos e reproduzir as verdadeiras polaridades desses refletores. A idéia básica desse novo tipo de rede, aqui denominada rede neural discreta (RND), é relacionar uma função objeto, que descreve o problema geofísico, com a função de Liapunov, que descreve a dinâmica da rede neural. Deste modo, a dinâmica da rede leva a uma minimização local da sua função de Liapunov e consequentemente leva a uma minimização da função objeto. Assim, com uma codificação conveniente do sinal de saída da rede tem-se uma solução do problema geofísico. A avaliação operacional da arquitetura desta rede neural artificial é realizada em dados sintéticos gerados através do modelo convolucional simples e da teoria do raio. A razão é para explicar o comportamento da rede com dados contaminados por ruído, e diante de pulsos fonte de fases mínima, máxima e misturada.
Resumo:
Vários sítios arqueológicos de Terra Preta Arqueológica (TPA) encontrados na floresta Amazônica Colombiana também contêm alto conteúdo de fragmentos cerâmicos semelhantes aqueles da Amazônia Brasileira, como mostra o sítio Quebrada Tacana. Seus fragmentos cerâmicos são amarelo a cinza, exibem matriz argilosa calcinada envolvendo fragmentos de cariapé, carvão e partículas de cinza, grãos de quartzo e micas. A matriz é composta de metacaulinita a material amorfo, quartzo, folhas de micas, clorita e sepiolita. Cariapé e cauixi são constituídos de cristobalita, da mesma forma o carvão e as cinzas. Embora não detectados pela difração de raios x, os fosfatos devem estar presentes, pois foram detectados teores de P2O5 de até 2,90 %, possivelmente como fosfatos de alumínio, já que o conteúdo de Ca está abaixo 0,1 %, o que elimina a possibilidade da presença de apatita. Estas características mineralógicas e químicas permitem relacionar estes fragmentos cerâmicos com aqueles encontrados nos sítios de TPA no Brasil e reforça o fósforo como um importante componente químico, originado pelo contato dos vasos cerâmicos com os alimentos do cotidiano dos povos amazônicos pré-históricos.
Resumo:
Lateritic iron crust (LIC) samples from Padauari (AM) were analysed by XRD, optical microscopy and SEM-EDS. The equilibrium of iron minerals (IM) was studied using Eh-pH diagram. It was shown that the minerals of the LIC are goethite (a-FeOOH), vivianite [Fe3(PO4)2.8H2O] and siderite (FeCO3). Carbonate grains are a solid solution of FeCO3-MnCO3. The LIC presents textures and structures of dissolution of IM. The siderite and vivianite are stable from Eh =-0.3 to 0.0 V and pH=5.0-7.5. These results indicate that vivianite and siderite are products of bioreduction through biogenic dissolution of IM, the new conditions of ecosystems of the Amazon region.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
Neste trabalho, estuda-se um novo método de inversão tomográfica de reflexão para a determinação de um modelo isotrópico e suave de velocidade por meio da aplicação, em dados sintéticos e reais, do programa Niptomo que é uma implementação do método de inversão tomográfica dos atributos cinemáticos da onda hipotética do ponto de incidência normal (PIN). Os dados de entrada para a inversão tomográfica, isto é, o tempo de trânsito e os atributos da onda PIN (raio de curvatura da frente de onda emergente e ângulo de emergência), são retirados de uma série de pontos escolhidos na seção afastamento nulo (AN) simulada, obtida pelo método de empilhamento por superfícies de reflexão comum (SRC). Normalmente, a escolha destes pontos na seção AN é realizada utilizando-se programas de picking automático, que identificam eventos localmente coerentes na seção sísmica com base nos parâmetros fornecidos pelo usuário. O picking é um dos processos mais críticos dos métodos de inversão tomográfica, pois a inclusão de dados de eventos que não sejam de reflexões primárias podem ser incluídos neste processo, prejudicando assim o modelo de velocidades a ser obtido pela inversão tomográfica. Este trabalho tem por objetivo de construir um programa de picking interativo para fornecer ao usuário o controle da escolha dos pontos de reflexões sísmicas primárias, cujos dados serão utilizados na inversão tomográfica. Os processos de picking e inversão tomográfica são aplicados nos dados sintéticos Marmousi e nos dados da linha sísmica 50-RL-90 da Bacia do Tacutu. Os resultados obtidos mostraram que o picking interativo para a escolha de pontos sobre eventos de reflexões primárias favorece na obtenção de um modelo de velocidade mais preciso.
Identificação automática das primeiras quebras em traços sísmicos por meio de uma rede neural direta
Resumo:
Apesar do avanço tecnológico ocorrido na prospecção sísmica, com a rotina dos levantamentos 2D e 3D, e o significativo aumento na quantidade de dados, a identificação dos tempos de chegada da onda sísmica direta (primeira quebra), que se propaga diretamente do ponto de tiro até a posição dos arranjos de geofones, permanece ainda dependente da avaliação visual do intérprete sísmico. O objetivo desta dissertação, insere-se no processamento sísmico com o intuito de buscar um método eficiente, tal que possibilite a simulação computacional do comportamento visual do intérprete sísmico, através da automação dos processos de tomada de decisão envolvidos na identificação das primeiras quebras em um traço sísmico. Visando, em última análise, preservar o conhecimento intuitivo do intérprete para os casos complexos, nos quais o seu conhecimento será, efetivamente, melhor aproveitado. Recentes descobertas na tecnologia neurocomputacional produziram técnicas que possibilitam a simulação dos aspectos qualitativos envolvidos nos processos visuais de identificação ou interpretação sísmica, com qualidade e aceitabilidade dos resultados. As redes neurais artificiais são uma implementação da tecnologia neurocomputacional e foram, inicialmente, desenvolvidas por neurobiologistas como modelos computacionais do sistema nervoso humano. Elas diferem das técnicas computacionais convencionais pela sua habilidade em adaptar-se ou aprender através de uma repetitiva exposição a exemplos, pela sua tolerância à falta de alguns dos componentes dos dados e pela sua robustez no tratamento com dados contaminados por ruído. O método aqui apresentado baseia-se na aplicação da técnica das redes neurais artificiais para a identificação das primeiras quebras nos traços sísmicos, a partir do estabelecimento de uma conveniente arquitetura para a rede neural artificial do tipo direta, treinada com o algoritmo da retro-propagação do erro. A rede neural artificial é entendida aqui como uma simulação computacional do processo intuitivo de tomada de decisão realizado pelo intérprete sísmico para a identificação das primeiras quebras nos traços sísmicos. A aplicabilidade, eficiência e limitações desta abordagem serão avaliadas em dados sintéticos obtidos a partir da teoria do raio.
Resumo:
A identificação de fácies em um poço não testemunhado é um dos problemas clássicos da avaliação de formação. Neste trabalho este problema é tratado em dois passos, no primeiro produz-se a codificação da informação geológica ou da descrição das fácies atravessadas em um poço testemunhado em termos das suas propriedades físicas registradas nos perfis geofísicos e traduzidas pelos parâmetros L e K, que são obtidos a partir dos perfis de porosidade (densidade, sônico e porosidade neutrônica) e pela argilosidade (Vsh) calculada pelo perfil de raio gama natural. Estes três parâmetros são convenientemente representados na forma do Gráfico Vsh-L-K. No segundo passo é realizada a interpretação computacional do Gráfico Vsh-L-K por um algoritmo inteligente construído com base na rede neural competitiva angular generalizada, que é especializada na classificação de padrões angulares ou agrupamento de pontos no espaço n-dimensional que possuem uma envoltória aproximadamente elipsoidal. Os parâmetros operacionais do algoritmo inteligente, como a arquitetura da rede neural e pesos sinápticos são obtidos em um Gráfico Vsh-L-K, construído e interpretado com as informações de um poço testemunhado. Assim, a aplicação deste algoritmo inteligente é capaz de identificar e classificar as camadas presentes em um poço não testemunhado, em termos das fácies identificadas no poço testemunhado ou em termos do mineral principal, quando ausentes no poço testemunhado. Esta metodologia é apresentada com dados sintéticos e com perfis de poços testemunhados do Campo de Namorado, na Bacia de Campos, localizada na plataforma continental do Rio de Janeiro, Brasil.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.
Resumo:
O trabalho em pauta tem como objetivo o modelamento da crosta, através da inversão de dados de refração sísmica profunda, segundo camadas planas horizontais lateralmente homogêneas, sobre um semi-espaço. O modelo direto é dado pela expressão analítica da curva tempo-distância como uma função que depende da distância fonte-estação e do vetor de parâmetros velocidades e espessuras de cada camada, calculado segundo as trajetórias do raio sísmico, regidas pela Lei de Snell. O cálculo dos tempos de chegada por este procedimento, exige a utilização de um modelo cujas velocidades sejam crescentes com a profundidade, de modo que a ocorrência das camadas de baixa velocidade (CBV) é contornada pela reparametrização do modelo, levando-se em conta o fato de que o topo da CBV funciona apenas como um refletor do raio sísmico, e não como refrator. A metodologia de inversão utilizada tem em vista não só a determinação das soluções possíveis, mas também a realização de uma análise sobre as causas responsáveis pela ambiguidade do problema. A região de pesquisa das prováveis soluções é vinculada segundo limites superiores e inferiores para cada parâmetro procurado, e pelo estabelecimento de limites superiores para os valores de distâncias críticas, calculadas a partir do vetor de parâmetros. O processo de inversão é feito utilizando-se uma técnica de otimização do ajuste de curvas através da busca direta no espaço dos parâmetros, denominado COMPLEX. Esta técnica apresenta a vantagem de poder ser utilizada com qualquer função objeto, e ser bastante prática na obtenção de múltiplas soluções do problema. Devido a curva tempo-distância corresponder ao caso de uma multi-função, o algoritmo foi adaptado de modo a minimizar simultaneamente várias funções objetos, com vínculos nos parâmetros. A inversão é feita de modo a se obter um conjunto de soluções representativas do universo existente. Por sua vez, a análise da ambiguidade é realizada pela análise fatorial modo-Q, através da qual é possível se caracterizar as propriedades comuns existentes no elenco das soluções analisadas. Os testes com dados sintéticos e reais foram feitos tendo como aproximação inicial ao processo de inversão, os valores de velocidades e espessuras calculados diretamente da interpretação visual do sismograma. Para a realização dos primeiros, utilizou-se sismogramas calculados pelo método da refletividade, segundo diferentes modelos. Por sua vez, os testes com dados reais foram realizados utilizando-se dados extraídos de um dos sismogramas coletados pelo projeto Lithospheric Seismic Profile in Britain (LISPB), na região norte da Grã-Bretanha. Em todos os testes foi verificado que a geometria do modelo possui um maior peso na ambiguidade do problema, enquanto os parâmetros físicos apresentam apenas suaves variações, no conjunto das soluções obtidas.
Resumo:
O sistema de águas subterrâneas vigentes na cidade de Manaus (AM) é pertencente ao Aqüífero Alter do Chão, o qual é caracterizado por fácies sedimentares arenosa, argilosa, areno-argilosa e “Arenito Manaus” depositadas em ambiente fluvial e flúvio-deltáico. Estima-se que 32.500 km3 de água possam ser explorados, fornecendo poços confinados a semiconfinados com vazão de até 300 m3/h em poços de aproximadamente 220 m de profundidade. Grandes distorções, contudo, têm sido notadas, Manaus, em foco neste trabalho, tem poços com baixo rendimento (de 78 m3/h), devido à má colocação de filtros em conseqüência da falta de informações sobre os aqüíferos. Através do uso integrado de perfilagem geofísica de poço (perfis de raio gama, de potencial espontâneo e de resistência elétrica), sondagem elétrica vertical e informações litológicas de amostragem de calha, mapearam-se camadas litológicas permo-porosas com elevado potencial aqüífero nas zonas norte e leste da cidade de Manaus. Foram identificadas duas zonas aqüíferas. A primeira zona é marcada pelos 50 m iniciais de profundidade. Nesta zona distinguem-se três tipos de litologias: argilosa, arenosa e areno-argilosa com as mais variadas dimensões. Estas duas últimas litologias apresentam elevado potencial aqüífero. Mesmo assim, nesta zona não há tendência a conter um volume de água considerável, devido à limitada continuidade lateral dos corpos arenosos e estar sujeita aos estorvos antrópicos superficiais. Portanto, não indicada para explotação de água em grandes quantidades. A segunda zona se estende a partir dos 50 m até aproximadamente 290 m de profundidade. É caracterizada por dois tipos de litologias: arenosa e areno-argilosa. Ao contrário da primeira, a esta profundidade há propensão do armazenamento e exploração de água. Apresenta litologias com elevado potencial aqüífero, cujos corpos arenosos são mais espessos e possuem uma maior continuidade lateral que os da zona 1; e valores da veza o de quase 300 m3/h. Serve, então, para abastecimento público por causa das boas vazões, garantia de água de boa qualidade protegida de ações antrópicas. A análise feita quanto à variação lateral, em mapas, de resistência transversal e condutância longitudinal, revelou que nas porções inferiores a 50 m de profundidade os setores NE e SW correspondem às zonas permeáveis. Portanto, possuem menos faixas argilosas, sendo considerados os setores mais transmissivos do sistema aqüífero. Os poços com profundidade maiores que 50 m recomenda-se sua locações nas faixas NNW, SW e extremo sul, em virtude dos resultados obtidos através da perfilagens geofísicas de poços, as quais delineiam camadas permo-porosas de elevado potencial aquífero para a área estudada.
Resumo:
No campo da perfilagem de poço existe um grande interesse voltado para as técnicas que melhorem a resolução vertical das respostas das ferramentas. Neste trabalho, optamos por desenvolver uma técnica de aumento de resolução vertical dos perfis obtidos com a ferramenta de indução denominada na bibliografia de 6FF40, através de um algoritmo que utiliza as técnicas de estimativa dos mínimos quadrados. Este método torna possível o processamento dos dados registrados de uma maneira computacionalmente eficiente. O algoritmo apresentado necessita apenas dos dados registrados, dos valores adotados como coeficientes da ferramenta, e de uma estimativa dos ruídos existentes. Como ilustração foram utilizados trechos de um perfil de uma área que reconhecidamente apresenta problemas relacionados à resolução vertical da ferramenta 6FF40. Com o objetivo de verificar a eficiência do algoritmo utilizado, os perfis processados foram correlacionados com os perfis de raio gama e com os perfis esféricos focalizados do poço 7-LOR-18-RN, perfis estes que possuem resolução vertical maior do que os perfis convencionais de indução, comprovando a individualização das camadas delgadas que antes do processamento não eram facilmente reconhecidas no perfil original. O algoritmo foi também testado com dados sintéticos demonstrando sua eficiência na recuperação de valores mais representativos para Rt.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O trabalho aqui apresentado visa o estudo da migração 3D no tempo, em amplitudes verdadeiras, de dados da seção afastamento nulo ("zero-offset"), usando a aproximação de segunda ordem do tempo de trânsito de difração. O processo de migração no tempo usa a função difração determinada, corretamente, através de mesmos parâmetros que controlam a função tempo de trânsito de reflexão, além do auxílio dos raios paraxiais. Os parâmetros que controlam a função tempo de trânsito de reflexão são determinados através de pelo menos nove medidas de tempo de trânsito, obtidas a partir de dados pré-empilhados (tiro comum, ponto médio comum - CMP, etc.). Determinada a função difração, pode-se fazer a migração sem a necessidade de que se conheça o modelo de velocidades, pois a função tempo de trânsito de difração, como definido neste trabalho, não necessita do mesmo. O espalhamento geométrico é removido através do processo de migração e aplicação de uma função peso aos dados da seção afastamento nulo. Juntamente com a função peso, aplicou-se um filtro objetivando a recuperação da fase do sinal, ocorrida como consequência do processo de migração. Devido a limitação computacional, fez-se testes com dados sintéticos, em 2D, objetivando verificar a eficiência do programa. Os resultados obtidos foram satisfatórios, mostrando a eficiência e confiabilidade do processo.
Resumo:
Nos últimos anos tem-se verificado através de várias publicações um interesse crescente em métodos de migração com amplitude verdadeira, com o objetivo de obter mais informações sobre as propriedades de refletividade da subsuperfície da terra. A maior parte desses trabalhos tem tratado deste tema baseando-se na aproximação de Born, como em Bleistein (1987) e Bleistein et al. (1987), ou na aproximação do campo de ondas pela teoria do raio como Hubral et al. (1991), Schleicher et al. (1993) e Martins et al. (1997). Considerando configurações arbitrárias de fontes e receptores, as reflexões primárias compressionais podem ser imageadas em reflexões migradas no domínio do tempo ou profundidade de tal modo que as amplitudes do campo de ondas migrado são uma medida do coeficiente de reflexão dependente do ângulo de incidência. Para realizar esta tarefa, vários algoritmos têm sido propostos nos últimos anos baseados nas aproximações de Kirchhoff e Born. Essas duas abordagens utilizam um operador integral de empilhamento de difrações ponderado que é aplicado aos dados da seção sísmica de entrada. Como resultado obtém-se uma seção migrada onde, em cada ponto refletor, tem-se o pulso da fonte com amplitude proporcional ao coeficiente de reflexão naquele ponto. Baseando-se na aproximação de Kirchhoff e na aproximação da teoria do raio do campo de ondas, neste trabalho é obtida a função peso para modelos bidimensionais (2-D) e dois e meio dimensionais (2,5-D) que é aplicada a dados sintéticos com e sem ruído. O resultado mostra a precisão e estabilidade do método de migração em 2-D e 2,5-D como uma ferramenta para a obtenção de informações importantes da subsuperfície da terra, que é de grande interesse para a análise da variação da amplitude com o afastamento (ângulo). Em suma, este trabalho apresenta expressões para as funções peso 2-D e 2,5-D em função de parâmetros ao longo de cada ramo do raio. São mostrados exemplos da aplicação do algoritmo de migração em profundidade a dados sintéticos 2-D e 2,5-D obtidos por modelamento sísmico através da teoria do raio usando o pacote Seis88 (Cervený e Psencík, 1988) e os resultados confirmaram a remoção do espalhamento geométrico dos dados migrados mesmo na presença de ruído. Testes adicionais foram realizados para a análise do efeito de alongamento do pulso na migração em profundidade (Tygel et al., 1994) e a aplicação do empilhamento múltiplo (Tygel et al., 1993) para a estimativa de atributos dos pontos de reflexão - no caso o ângulo de reflexão e a posição do receptor.