988 resultados para Open-access algorithm
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (AN) a partir de dados de cobertura múltipla pode ser realizada através do empilhamento sísmico, o qual é um método de imageamento de reflexão sísmica muito utilizado na indústria. O processo de empilhamento sísmico permite reduzir a quantidade de dados e melhorar a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda. Recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Este novo formalismo pode ser estendido para construir seções de afastamento-nulo (AN) a partir de dados de cobertura múltipla, usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento-nulo (AN), para o caso de uma linha de medição com topografia suave e rugosa. Essas duas aproximações de tempos de trânsito também dependem de três atributos cinemáticos de frentes de ondas. Nesta dissertação, apresenta-se uma revisão teórica da teoria paraxial do raio para a obtenção das aproximações dos tempos de trânsito paraxiais considerando uma linha de medição com topografia rugosa e suave. A partir das aproximações dos tempos de trânsito paraxiais em relação a um raio central com afastamento-nulo (AN), foram obtidas duas novas aproximações de tempos de trânsito usando a condição de um ponto difrator em profundidade, reduzindo as equações originais para dois parâmetros. Também foram obtidas as aproximações para o caso de raios paraxiais com afastamento-nulo (AN). Para as aproximações de reflexão e difração utilizando um mesmo modelo sintético, foram comparadas através da representação gráfica as superfícies de empilhamento das aproximações dos tempos de trânsito para a topografia suave e rugosa. Em seguida, para analisar o comportamento dos operadores associados a reflexão e a difração, quando estes são perturbados, discutimos suas sensibilidades em relação a cada um dos três parâmetros (β0, KPIN, KN). Esta análise de sensibilidade foi realizada em duas formas: Sensibilidade através da perturbação de cada parâmetro visualizado nas superfícies de empilhamento SRC-TR e SDC-TR e da primeira derivada dos tempos de trânsito SRC-TR e SDC-TR. Finalmente, usando essas aproximações hiperbólicas em função de três e dois parâmetros e com base nos resultados da análise de sensibilidade, foi proposto um algoritmo para simular seções AN a partir de dados de cobertura múltipla.
Resumo:
Ainda hoje, a migração em tempo é o processo de imageamento substancialmente empregado na indústria do petróleo. Tal popularidade é devida ao seu alto grau de eficiência e robustez, além de sua habilidade em focalizar refletores nos mais variados ambientes geológicos. Entretanto, em áreas de alta complexidade geológica a migração em tempo falha de tal forma que a migração em profundidade e um campo de velocidade em profundidade são indispensáveis. Esse campo é geralmente obtido através de processos tomográficos partindo de um campo de velocidade inicial. A conversão de campos de velocidade de tempo para profundidade é uma forma rápida de se obter um campo inicial mais consistente geologicamente para tais processos. Alguns algoritmos de conversão tempo-profundidade recentemente desenvolvidos baseados no traçamento de raios-imagem são revistos e um algoritmo alternativo baseado na propagação da frente de onda-imagem é proposto. Os algoritmos são aplicados a dados sintéticos bidimensionais e avaliados de acordo com suas eficiência e acurácia, destacando suas vantagens, desvantagens e limitações na obtenção de campos de velocidade em profundidade.
Resumo:
Neste trabalho desenvolveu-se uma solução para o clássico problema da determinação automática de litologias. Construiu-se um banco de dados utilizando-se a técnica de análise discriminante aplicada sobre trechos testemunhados de poços perfilados de um campo situado em lâmina d'água profunda localizado na bacia de Campos. A técnica de análise de agrupamento, utilizada por um grande número de pesquisadores, foi testada para o mesmo conjunto de dados porém não forneceu resultados satisfatórios em comparação com os obtidos com a análise discriminante. Os dados de perfis, após sofrerem correções ambientais, são colocados em profundidade com os dados de testemunhagem e determina-se uma função discriminante que classifica as respostas dos perfis de acordo com as litofácies descritas nos testemunhos. Dessa forma obtém-se um banco de dados, a partir do qual se faz a discriminação de litologias em poços, testemunhados ou não, da mesma área. O banco de dados assim construído permite sua atualização através da incorporação de trechos testemunhados de novos poços. Mostra-se a necessidade de agrupar as litologias em quatro litofácies principais para este campo de maneira a padronizar os resultados, diminuir as indeterminações e melhorar a apresentação final. Como produto final obtém-se uma curva discriminada de eletrofácies que reproduz, com algum grau de certeza, as litofácies que reproduzem as litologias esperadas em subsuperfície. Como exemplo de aplicação deste método, utilizou-se as curvas discriminadas para correlacionar três poços, utilizando para isto um algoritmo de correlação automática.
Resumo:
A correlação estratigráfica busca a determinação da continuidade lateral das rochas, ou a equivalência espacial entre unidades litológicas em subsuperfície, a partir de informações geológico-geofísicas oriundas de poços tubulares, que atravessam estas rochas. Normalmente, mas não exclusivamente, a correlação estratigráfica é realizada a partir das propriedades físicas registradas nos perfis geofísicos de poço. Neste caso, busca-se a equivalência litológica a partir da equivalência entre as propriedades físicas, medidas nos vários poços de um campo petrolífero. A técnica da correlação estratigráfica com perfis geofísicos de poço não é uma atividade trivial e sim, sujeita a inúmeras possibilidades de uma errônea interpretação da disposição geométrica ou da continuidade lateral das rochas em subsuperfície, em função da variabilidade geológica e da ambigüidade das respostas das ferramentas. Logo, é recomendável a utilização de um grande número de perfis de um mesmo poço, para uma melhor interpretação. A correlação estratigráfica é fundamental para o engenheiro de reservatório ou o geólogo, pois a partir da mesma, é possível a definição de estratégias de explotação de um campo petrolífero e a interpretação das continuidades hidráulicas dos reservatórios, bem como auxílio para a construção do modelo geológico para os reservatórios, a partir da interpretação do comportamento estrutural das diversas camadas em subsuperfície. Este trabalho apresenta um método de automação das atividades manuais envolvidas na correlação estratigráfica, com a utilização de vários perfis geofísicos de poço, através de uma arquitetura de rede neural artificial multicamadas, treinada com o algoritmo de retropropagação do erro. A correlação estratigráfica, obtida a partir da rede neural artificial, possibilita o transporte da informação geológica do datum de correlação ao longo do campo, possibilitando ao intérprete, uma visão espacial do comportamento do reservatório e a simulação dos possíveis paleoambientes. Com a metodologia aqui apresentada foi possível a construção automática de um bloco diagrama, mostrando a disposição espacial de uma camada argilosa, utilizando-se os perfis de Raio Gama (RG), Volume de Argila (Vsh), Densidade (ρb) e de Porosidade Neutrônica (φn) selecionados em cinco poços da região do Lago Maracaibo, na Venezuela.
Resumo:
Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.
Resumo:
Os efeitos Delaware e Groningen são dois tipos de anomalia que afetam ferramentas de eletrodos para perfilagem de resistividade. Ambos os efeitos ocorrem quando há uma camada muito resistiva, como anidrita ou halita, acima do(s) reservatório(s), produzindo um gradiente de resistividade muito similar ao produzido por um contato óleo-água. Os erros de interpretação produzidos têm ocasionado prejuízos consideráveis à indústria de petróleo. A PETROBRÁS, em particular, tem enfrentado problemas ocasionados pelo efeito Groningen sobre perfis obtidos em bacias paleozóicas da região norte do Brasil. Neste trabalho adaptamos, com avanços, uma metodologia desenvolvida por LOVELL (1990), baseada na equação de Helmholtz para HΦ, para modelagem dos efeitos Delaware e Groningen. Solucionamos esta equação por elementos finitos triangulares e retangulares. O sistema linear gerado pelo método de elementos finitos é resolvido por gradiente bi-conjugado pré-condicionado, sendo este pré-condicionador obtido por decomposição LU (Low Up) da matriz de stiffness. As voltagens são calculadas por um algoritmo, mais preciso, recentemente desenvolvido. Os perfis são gerados por um novo algoritmo envolvendo uma sucessiva troca de resistividade de subdomínios. Este procedimento permite obter cada nova matriz de stiffness a partir da anterior pelo cálculo, muito mais rápido, da variação dessa matriz. Este método permite ainda, acelerar a solução iterativa pelo uso da solução na posição anterior da ferramenta. Finalmente geramos perfis sintéticos afetados por cada um dos efeitos para um modelo da ferramenta Dual Laterolog.
Resumo:
Este trabalho apresenta uma modelagem paramétrica (auto-regressiva) linear aplicável a estudos de propagação de televisão digital e telefonia celular para cidades densamente arborizadas. A modelagem proposta apresenta um forte embasamento estatístico e depende apenas de dados provenientes de medição, no caso dados relativos a potência recebida e o valor de PSNR (Peak Signal-to-Noise Ratio). Um algoritmo genético é utilizado no cálculo dos parâmetros de ajuste do modelo a um conjunto de dados. O trabalho foi realizado na faixa de televisão digital e foram analisadas duas variáveis: a potência recebida do sinal e o valor de PSNR. Foram executadas campanhas de medição na cidade de Belém. Nestas medições foram coletados dados de potência e gravados vídeos da programação diária de uma emissora de televisão. Os resultados podem ser aplicados no planejamento de serviços de telecomunicações.
Resumo:
Marine Controlled Source Electromagnetic - mCSEM é um método geofísico eletromagnético que nos últimos dez anos vem sendo usado na prospecção de hidrocarbonetos com bastante êxito. Este método consiste em um dipolo elétrico horizontal (DEH) localizado um pouco acima do assoalho marinho, operando em baixa frequência (0,1-1,0 Hz) e receptores regularmente distribuídos no fundo do mar que captam os campos eletromagnéticos provenientes da difusão de energia gerada pelo dipolo transmissor. Neste trabalho vamos apresentar o problema direto do método mCSEM 3D, propondo soluções numéricas, através do método dos elementos finitos tridimensionais, para modelos geoelétricos mCSEM 3D. Para fins de análise de coerência, os resultados obtidos são comparados com soluções disponíveis na literatura. Em seguida, apresentaremos a inversão de um de seus modelos segundo uma proposta de metodologia de inversão juntamente com a proposta de solução direta para o mCSEM 3D, acima mencionada, realizando assim a inversão de um modelo geoelétrico do mCSEM 3D para duas frequências.
Resumo:
A prospecção geofísica para a exploração de água subterrânea em regiões cristalinas torna-se uma tarefa extremamente difícil pela presença de estruturas como falhas, fraturas e ocorrência de variação lateral de resistividade no manto intempérico. Para analisar a influência da variação bidimensional da propriedade física no comportamento das curvas de sondagem elétrica vertical Schlumberger, simulou-se modelos contendo tais estruturas encaixadas no manto de alteração com ângulo de mergulho de 30° e 90° e com a posição do centro de sondagem variando em relação a heterogeneidade. A modelagem numérica foi feita através do método dos elementos finitos com o programa EGSLIB/SEV2D. O resultado da simulação mostra que o emprego da técnica da sondagem elétrica vertical Schlumberger sobre meios bidimensionais não funciona eficientemente, como quando aplicada em regiões sedimentares e de aluvião, devido o fenômeno da ambigüidade que dificulta a interpretação das curvas. Dentre os métodos geofísicos para a investigação hidrogeológica, a aplicação dos métodos eletrorresistivos mostra-se mais simples, eficaz e econômica. Assim, o levantamento geofísico para orientar os trabalhos de perfurações de poços na cidade de Ourilândia do Norte contou de trinta e duas sondagens elétricas verticais tipo Schlumberger e um caminhamento elétrico dipolo-dipolo realizados em diversas ruas da cidade. As curvas de resistividade aparente, obtidas com as sondagens foram tratadas e processadas considerando um modelo de camadas planas, horizontais, homogêneas e isotropicas, inicialmente com o algoritmo EGSLIB/SEV1D e posteriormente com uso do programa EGSLIB/SEV1DINV, permitindo estabelecer modelos geoelétricos aproximados para a configuração da subsuperfície da cidade. Depois da interpretação quantitativa, foi possível separar duas zonas geoelétricas distintas. Esta diferenciação foi realizada com base nos valores de resistividade aparente e as informações geológicas de superfície. A primeira, com pouca representatividade na área da cidade, apresenta-se constituída por solo/aterro sobre saprolito de natureza argilo-arenosa recobrindo os granitóides tipo Rio Maria. A segunda composta pelo solo/aterro seguido de um horizonte preenchido por sedimentos arenosos superposto a camada argilo-arenosa e finalmente a rocha sã. Esta seqüência geoelétrica predomina na cidade. Os estratos arenoso e argilo-arenoso apresentam condições potenciais para armazenamento de água.
Resumo:
No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.
Resumo:
O presente estudo realiza estimativas da condutividade térmica dos principais minerais formadores de rochas, bem como estimativas da condutividade média da fase sólida de cinco litologias básicas (arenitos, calcários, dolomitos, anidritas e litologias argilosas). Alguns modelos térmicos foram comparados entre si, possibilitando a verificação daquele mais apropriado para representar o agregado de minerais e fluidos que compõem as rochas. Os resultados obtidos podem ser aplicados a modelamentos térmicos os mais variados. A metodologia empregada baseia-se em um algoritmo de regressão não-linear denominado de Busca Aleatória Controlada. O comportamento do algoritmo é avaliado para dados sintéticos antes de ser usado em dados reais. O modelo usado na regressão para obter a condutividade térmica dos minerais é o modelo geométrico médio. O método de regressão, usado em cada subconjunto litológico, forneceu os seguintes valores para a condutividade térmica média da fase sólida: arenitos 5,9 ± 1,33 W/mK, calcários 3.1 ± 0.12 W/mK, dolomitos 4.7 ± 0.56 W/mK, anidritas 6.3 ± 0.27 W/mK e para litologias argilosas 3.4 ± 0.48 W/mK. Na sequência, são fornecidas as bases para o estudo da difusão do calor em coordenadas cilíndricas, considerando o efeito de invasão do filtrado da lama na formação, através de uma adaptação da simulação de injeção de poços proveniente das teorias relativas à engenharia de reservatório. Com isto, estimam-se os erros relativos sobre a resistividade aparente assumindo como referência a temperatura original da formação. Nesta etapa do trabalho, faz-se uso do método de diferenças finitas para avaliar a distribuição de temperatura poço-formação. A simulação da invasão é realizada, em coordenadas cilíndricas, através da adaptação da equação de Buckley-Leverett em coordenadas cartesianas. Efeitos como o aparecimento do reboco de lama na parede do poço, gravidade e pressão capilar não são levados em consideração. A partir das distribuições de saturação e temperatura, obtém-se a distribuição radial de resistividade, a qual é convolvida com a resposta radial da ferramenta de indução (transmissor-receptor) resultando na resistividade aparente da formação. Admitindo como referência a temperatura original da formação, são obtidos os erros relativos da resistividade aparente. Através da variação de alguns parâmetros, verifica-se que a porosidade e a saturação original da formação podem ser responsáveis por enormes erros na obtenção da resistividade, principalmente se tais "leituras" forem realizadas logo após a perfuração (MWD). A diferença de temperatura entre poço e formação é a principal causadora de tais erros, indicando que em situações onde esta diferença de temperatura seja grande, perfilagens com ferramentas de indução devam ser realizadas de um a dois dias após a perfuração do poço.
Resumo:
A determinação de um acurado modelo de velocidades é um requisito fundamental para a realização do imageamento sísmico. Métodos novos como a Estereotomografia préempilhamento e a Tomografia da onda NIP são ferramentas poderosas e bastante sugestivas para este propósito. Basicamente, a Estereotomografia pré-empilhamento se baseia no conceito de eventos localmente coerentes interpretados como reflexões primárias e associados com pares de segmentos de raios, que tem um mesmo ponto de reflexão em profundidade. Na Tomografia da onda NIP um evento sísmico é representado por uma onda hipotética NIP, que está relacionada a um ponto de reflexão em profundidade. Os atributos da onda NIP são determinados no decorrer do Empilhamento de Superfície de Reflexão Comum (empilhamento CRS). Este trabalho tem como objetivo, fazer um estudo comparativo de ambos os métodos de determinação do modelo de velocidades em profundidade. Assim, é realizada uma revisão dos fundamentos teóricos de ambos os métodos tomográficos, destacando as principais diferenças e aplicando estas aproximações em um dado sintético e um dado real marinho (linha sísmica 214-2660 da Bacia do Jequitinhonha). Para avaliar os modelos de velocidades encontrados pelas aproximações, foi utilizada a migração pré-empilhamento em profundidade do tipo Kirchhoff e também as famílias de imagem comum (CIG). Os resultados mostraram que ambos os métodos tomográficos fornecem modelos de velocidades representativos. Contudo, constatou-se que a estereotomografia tem melhor desempenho em meios com variações laterais de velocidades, porém, aplicável somente em dados pré-empilhados com alta razão sinal/ruído.
Resumo:
Os métodos numéricos de Elementos Finitos e Equação Integral são comumente utilizados para investigações eletromagnéticas na Geofísica, e, para essas modelagens é importante saber qual algoritmo é mais rápido num certo modelo geofísico. Neste trabalho são feitas comparações nos resultados de tempo computacional desses dois métodos em modelos bidimensionais com heterogeneidades condutivas num semiespaço resistivo energizados por uma linha infinita de corrente (com 1000Hz de freqüência) e situada na superfície paralelamente ao "strike" das heterogeneidades. Após a validação e otimização dos programas analisamos o comportamento dos tempos de processamento nos modelos de corpos retangulares variandose o tamanho, o número e a inclinação dos corpos. Além disso, investigamos nesses métodos as etapas que demandam maior custo computacional. Em nossos modelos, o método de Elementos Finitos foi mais vantajoso que o de Equação Integral, com exceção na situação de corpos com baixa condutividade ou com geometria inclinada.
Resumo:
Apresentamos dois algoritmos automáticos, os quais se utilizam do método dos mínimos quadrados de Wiener-Hopf, para o cálculo de filtros lineares digitais para as transformadas seno, co-seno e de Hankel J0, J1 e J2. O primeiro, que otimiza os parâmetros: incremento das abscissas, abscissa inicial e o fator de deslocamento utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas co-seno, seno e o segundo, que otimiza os parâmetros: incremento das abscissas e abscissa inicial utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas de Hankel J0, J1 e J2. Esses algoritmos levaram às propostas de novos filtros lineares digitais de 19, 30 e 40 pontos para as transformadas co-seno e seno e de novos filtros otimizados de 37 , 27 e 19 pontos para as transformadas J0, J1 e J2, respectivamente. O desempenho dos novos filtros em relação aos filtros existentes na literatura geofísica é avaliado usando-se um modelo geofísico constituído por dois semi-espaços. Como fonte usou-se uma linha infinita de corrente entre os semi-espaços originando, desta forma, transformadas co-seno e seno. Verificou-se melhores desempenhos na maioria das simulações usando o novo filtro co-seno de 19 pontos em relação às simulações usando o filtro co-seno de 19 pontos existente na literatura. Verificou-se também a equivalência de desempenhos nas simulações usando o novo filtro seno de 19 pontos em relação às simulações usando o filtro seno de 20 pontos existente na literatura. Adicionalmente usou-se também como fonte um dipolo magnético vertical entre os semi-espaços originando desta forma, transformadas J0 e J1, verificando-se melhores desempenhos na maioria das simulações usando o novo filtro J1 de 27 pontos em relação ao filtro J1 de 47 pontos existente na literatura. Verificou-se também a equivalência de desempenhos na maioria das simulações usando o novo filtro J0 de 37 pontos em relação ao filtro J0 de 61 pontos existente na literatura. Usou-se também como fonte um dipolo magnético horizontal entre os semi-espaços, verificando-se um desempenho análogo ao que foi descrito anteriormente dos novos filtros de 37 e 27 pontos para as respectivas transformadas J0 e J1 em relação aos filtros de 61 e 47 pontos existentes na literatura, destas respectivas transformadas. Finalmente verificou-se a equivalência de desempenhos entre os novos filtros J0 de 37 pontos e J1 de 27 pontos em relação aos filtros de 61 e 47 pontos existentes na literatura destas transformadas, respectivamente, quando aplicados em modelos de sondagens elétricas verticais (Wenner e Schlumberger). A maioria dos nossos filtros contêm poucos coeficientes quando comparados àqueles geralmente usados na geofísica. Este aspecto é muito importante porque transformadas utilizando filtros lineares digitais são usadas maciçamente em problemas numéricos geofísicos.
Resumo:
O presente trabalho consiste na formulação de uma metodologia para interpretação automática de dados de campo magnético. Desta forma, a sua utilização tornará possível a determinação das fronteiras e magnetização de cada corpo. Na base desta metodologia foram utilizadas as características de variações abruptas de magnetização dos corpos. Estas variações laterais abruptas serão representadas por polinômios descontínuos conhecidos como polinômios de Walsh. Neste trabalho, muitos conceitos novos foram desenvolvidos na aplicação dos polinômios de Walsh para resolver problemas de inversão de dados aeromagnéticos. Dentre os novos aspectos considerados, podemos citar. (i) - O desenvolvimento de um algoritmo ótimo para gerar um jôgo dos polinômios "quase-ortogonais" baseados na distribuição de magnetização de Walsh. (ii) - O uso da metodologia damped least squares para estabilizar a solução inversa. (iii) - Uma investigação dos problemas da não-invariância, inerentes quando se usa os polinômios de Walsh. (iv) - Uma investigação da escolha da ordem dos polinômios, tomando-se em conta as limitações de resolução e o comportamento dos autovalores. Utilizando estas características dos corpos magnetizados é possível formular o problema direto, ou seja, a magnetização dos corpos obedece a distribuição de Walsh. É também possível formular o problema inverso, na qual a magnetização geradora do campo observado obedece a série de Walsh. Antes da utilização do método é necessária uma primeira estimativa da localização das fontes magnéticas. Foi escolhida uma metodologia desenvolvida por LOURES (1991), que tem como base a equação homogênea de Euler e cujas exigências necessárias à sua utilização é o conhecimento do campo magnético e suas derivadas. Para testar a metodologia com dados reais foi escolhida uma região localizada na bacia sedimentar do Alto Amazonas. Os dados foram obtidos a partir do levantamento aeromagnético realizado pela PETROBRÁS.