68 resultados para Espinélios sintéticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese apresenta dois estudos aplicados à inversão de dados magnetotelúricos. No primeiro deles, os parâmetros obtidos na inversão são as dimensões da malha de parametrização da subsuperfície, sendo conhecida, a priori, a resistividade de uma heterogeneidade e a do seu meio envolvente; no outro estudo, é abordado o uso de operadores de derivadas de ordem maior do que um com a finalidade de estabilizar o problema inverso. No primeiro estudo, os resultados podem ser considerados satisfatórios somente se a informação sobre as resistividades tem erro menor do que 20%. No segundo estudo, os resultados demonstram que o uso de operadores de ordem maior do que um podem ser mais eficazes do que o uso convencional do operador de primeira derivada, pois além de estabilizarem o problema inverso, esses operadores contribuem para melhorar a resolução das heterogeneidades de resistividade da subsuperfície. Ambos os estudos são inéditos, pois a prática de inversão de dados magnetotelúricos consiste de obter como resultado do problema inverso a resistividade dos prismas de uma malha de parametrização de dimensões fixas, usando como estabilizador o operador de primeira derivada. Os modelos usados nos estudos são bidimensionais e representam uma subsuperfície com uma e duas heterogeneidades de forma prismática envolvidas por ambiente homogêneo. O desempenho das técnicas foi testado com dados sintéticos com e sem ruído gaussiano, bem como dados reais do perfil COPROD2. Durante o trabalho, são, ainda, descritas as técnicas de inversão denominadas creeping e jumping e feita uma comparação e avaliação sobre elas. Mostra-se aqui que, ao contrário do que afirmam muitos pesquisadores, a inclusão de informação a priori sore os parâmetros pode ser feita na técnica do creeping com a mesma facilidade com que é feita na técnica do jumping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Feixe Gaussiano (FG) é uma solução assintótica da equação da elastodinâmica na vizinhança paraxial de um raio central, a qual se aproxima melhor do campo de ondas do que a aproximação de ordem zero da Teoria do Raio. A regularidade do FG na descrição do campo de ondas, assim como a sua elevada precisão em algumas regiões singulares do meio de propagação, proporciona uma forte alternativa na solução de problemas de modelagem e imageamento sísmicos. Nesta Tese, apresenta-se um novo procedimento de migração sísmica pré-empilhamento em profundidade com amplitudes verdadeiras, que combina a flexibilidade da migração tipo Kirchhoff e a robustez da migração baseada na utilização de Feixes Gaussianos para a representação do campo de ondas. O algoritmo de migração proposto é constituído por dois processos de empilhamento: o primeiro é o empilhamento de feixes (“beam stack”) aplicado a subconjuntos de dados sísmicos multiplicados por uma função peso definida de modo que o operador de empilhamento tenha a mesma forma da integral de superposição de Feixes Gaussianos; o segundo empilhamento corresponde à migração Kirchhoff tendo como entrada os dados resultantes do primeiro empilhamento. Pelo exposto justifica-se a denominação migração Kirchhoff-Gaussian-Beam (KGB). As principais características que diferenciam a migração KGB, durante a realização do primeiro empilhamento, de outros métodos de migração que também utilizam a teoria dos Feixes Gaussianos, são o uso da primeira zona de Fresnel projetada para limitar a largura do feixe e a utilização, no empilhamento do feixe, de uma aproximação de segunda ordem do tempo de trânsito de reflexão. Como exemplos são apresentadas aplicações a dados sintéticos para modelos bidimensionais (2-D) e tridimensionais (3-D), correspondentes aos modelos Marmousi e domo de sal da SEG/EAGE, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma técnica para a inversão de dados magnetotelúricos é apresentada neste trabalho. Dois tipos de dados são tratados aqui, dados gerados por modelos unidimensionais com anisotropia na condutividade das camadas e dados bi-dimensionais de levantamentos do método EMAP (ElectroMagnetic Array Profiling). Em ambos os casos fazemos a inversão usando vínculos aproximados de igualdade para estabilizar as soluções. Mostramos as vantagens e as limitações do uso destes vínculos nos processos de inversão. Mesmo vinculada a inversão ainda pode se tornar instável. Para inverter os dados 2-D do EMAP, apresentamos um processo que consiste de três partes: 1 – A construção de um modelo interpretativo e da aproximação inicial para a inversão a partir dos dados de seções de resistividade aparente filtradas pelo processo de filtragem do EMAP; 2 – a inclusão de uma camada de corpos pequenos aflorantes, chamada de camada destatic shift, aos modelos interpretativos para resolver as fontes de distorções estáticas que contaminam os dados; 3 – o uso dos vínculos aproximados de igualdade absoluta para estabilizar as soluções. Os dois primeiros passos nos permitem extrair o máximo de informação possível dos dados, enquanto que o uso dos vínculos de igualdade nos permite incluir informação a priori que possua significado físico e geológico. Com estes passos, obtemos uma solução estável e significativa. Estudaremos o método em dados sintéticos de modelos bi-dimensionais e em dados reais de uma linha de EMAP feita na Bacia do Paraná.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho discute dois aspectos da migração em profundidade através da continuação para baixo dos campos de onda: o tratamento de modos evanescentes e a correção da amplitude dos eventos migrados. Estes dois aspectos são discutidos em meios isotrópicos e para uma classe de meios anisotrópicos. Migrações por diferenças finitas (FD) e por diferenças finitas e Fourier (FFD) podem ser instáveis em meios com forte variação lateral de velocidade. Estes métodos utilizam aproximações de Padé reais para representar o operador que descreve a propagação de ondas descendentes. Estas abordagens não são capazes de tratar corretamente os modos evanescentes, o que pode levar à instabilidades numéricas em meios com forte variação lateral de velocidade. Uma solução possível para esse problema é utilizar aproximação de Padé complexa, que consegue melhor representar os modos evanescentes associados às reflexões pós-críticas, e neste trabalho esta aproximação é utilizada para obter algoritmos FD e híbrido FD/FFD estáveis para migração em meios transversalmente isotrópicos com eixo de simetria vertical (VTI), mesmo na presença de forte variação nas propriedades elásticas do meio. A estabilidade dos algoritmos propostos para meios VTI foi validada através da resposta ao impulso do operador de migração e pela sua aplicação na migração de dados sintéticos, em meios fortemente heterogêneos. Métodos de migração por equação de onda em meios heterogêneos não tratam corretamente a amplitude dos eventos durante a propagação. As equações de onda unidirecionais tradicionais descrevem corretamente apenas a parte cinemática da propagação do campo de onda. Assim, para uma descrição correta das amplitudes deve-se usar as equações de onda unidirecionais de amplitude verdadeira. Em meios verticalmente heterogêneos, as equações de onda unidirecionais de amplitude verdadeira podem ser resolvidas analiticamente. Em meios lateralmente heterogêneos, essas equações não possuem uma solução analítica. Mesmo soluções numéricas tendem a ser instáveis. Para melhorar a compensação de amplitude na migração, em meios com variação lateral de velocidade, é proposto uma aproximação estável para solução da equação de onda unidirecional de amplitude verdadeira. Esta nova aproximação é implementada nas migrações split-step e diferenças finitas e Fourier (FFD). O algoritmo split-step com correção de amplitude foi estendido para meios VTI. A migração pré e pós-empilhamento de dados sintéticos, em meios isotrópicos e anisotrópicos, confirmam o melhor tratamento das amplitudes e estabilidade dos algoritmos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de migração do tipo Kirchhoff se apresenta na literatura como uma das ferramentas mais importantes de todo o processamento sísmico, servindo de base para a resolução de outros problemas de imageamento, devido ao um menor custo computacional em relação aos métodos que tem por base a solução numérica da equação da onda. No caso da aplicação em três dimensões (3D), mesmo a migração do tipo Kirchhoff torna-se dispendiosa, no que se refere aos requisitos computacionais e até mesmo numéricos para sua efetiva aplicação. Desta maneira, no presente trabalho, objetivando produzir resultados com uma razão sinal/ruído maior e um menor esforço computacional, foi utilizado uma simplificação do meio denominado 2.5D, baseado nos fundamentos teóricos da propagação de feixes gaussianos. Assim, tendo como base o operador integral com feixes gaussianos desenvolvido por Ferreira e Cruz (2009), foi derivado um novo operador integral de superposição de campos paraxiais (feixes gaussianos), o mesmo foi inserido no núcleo do operador integral de migração Kirchhoff convencional em verdadeira amplitude, para a situação 2,5D, definindo desta maneira um novo operador de migração do tipo Kirchhoff para a classe pré-empilhamento em verdadeira amplitude 2.5D (KGB,do inglês Kirchhoff-Gausian-Beam). Posteriormente, tal operador foi particularizado para as configurações de medida afastamento comum (CO, do inglês common offset) e ângulo de reflexão comum (CA, do inglês common angle), ressaltando ainda, que na presente Tese foi também idealizada uma espécie de flexibilização do operador integral de superposição de feixes gaussianos, no que concerne a sua aplicação em mais de um domínio, quais sejam, afastamento comum e fonte comum. Nesta Tese são feitas aplicações de dados sintéticos originados a partir de um modelo anticlinal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese mostra a modelagem 2,5D de dados sintéticos do Método Eletromagnético a Multi-frequência (EMMF). O trabalho é apresentado em duas partes: a primeira apresenta os detalhes dos métodos usados nos cálculos dos campos gerados por uma bobina horizontal de corrente colocada sobre a superfície de modelos bidimensionais; e a segunda, usa os resultados obtidos para simular os dados medidos no método EMMF, que são as partes real e imaginária da componente radial do campo magnético gerado pela bobina. Nesta segunda parte, observamos o comportamento do campo calculado em diversos modelos, incluindo variações nas propriedades físicas e na geometria dos mesmos, com o intuito de verificar a sensibilidade do campo observado com relação às estruturas presentes em uma bacia sedimentar. Com esta modelagem, podemos observar as características dos dados e como as duas partes, real e imaginária, contribuem com informações distintas e complementares. Os resultados mostram que os dados da componente radial do campo magnético apresentam muito boa resolução lateral, mesmo estando a fonte fixa em uma única posição. A capacidade desses dados em distinguir e resolver estruturas alvo será fundamental para o trabalho futuro de inversão, bem como para a construção de seções de resistividade aparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desenvolvemos a modelagem numérica de dados sintéticos Marine Controlled Source Electromagnetic (MCSEM) usada na exploração de hidrocarbonetos para simples modelos tridimensionais usando computação paralela. Os modelos são constituidos de duas camadas estrati cadas: o mar e o sedimentos encaixantes de um delgado reservatório tridimensional, sobrepostas pelo semi-espaço correspondente ao ar. Neste Trabalho apresentamos uma abordagem tridimensional da técnica dos elementos nitos aplicada ao método MCSEM, usando a formulação da decomposição primária e secundária dos potenciais acoplados magnético e elétrico. Num pós-processamento, os campos eletromagnéticos são calculados a partir dos potenciais espalhados via diferenciação numérica. Exploramos o paralelismo dos dados MCSEM 3D em um levantamento multitransmissor, em que para cada posição do transmissor temos o mesmo processo de cálculos com dados diferentes. Para isso, usamos a biblioteca Message Passing Interface (MPI) e o modelo servidor cliente, onde o processador administrador envia os dados de entradas para os processadores clientes computar a modelagem. Os dados de entrada são formados pelos parâmetros da malha de elementos nitos, dos transmissores e do modelo geoelétrico do reservatório. Esse possui geometria prismática que representa lentes de reservatórios de hidrocarbonetos em águas profundas. Observamos que quando a largura e o comprimento horizontais desses reservatório têm a mesma ordem de grandeza, as resposta in-line são muito semelhantes e conseqüentemente o efeito tridimensional não é detectado. Por sua vez, quando a diferença nos tamanhos da largura e do comprimento do reservatório é signi cativa o efeito 3D é facilmente detectado em medidas in-line na maior dimensão horizontal do reservatório. Para medidas na menor dimensão esse efeito não é detectável, pois, nesse caso o modelo 3D se aproxima de um modelo bidimensional. O paralelismo dos dados é de rápida implementação e processamento. O tempo de execução para a modelagem multitransmissor em ambiente paralelo é equivalente ao tempo de processamento da modelagem para um único transmissor em uma máquina seqüêncial, com o acréscimo do tempo de latência na transmissão de dados entre os nós do cluster, o que justi ca o uso desta metodologia na modelagem e interpretação de dados MCSEM. Devido a reduzida memória (2 Gbytes) em cada processador do cluster do departamento de geofísica da UFPA, apenas modelos muito simples foram executados.