52 resultados para São João Batista Cemetery
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.
Resumo:
A inversão de momentos de fonte gravimétrica tridimensional é analisada em duas situações. Na primeira se admite conhecer apenas a anomalia. Na segunda se admite conhecer, além da anomalia, informação a priori sobre o corpo anômalo. Sem usar informação a priori, mostramos que é possível determinar univocamente todo momento, ou combinação linear de momentos, cujo núcleo polinomial seja função apenas das coordenadas Cartesianas que definem o plano de medida e que tenha Laplaciano nulo. Além disso, mostramos que nenhum momento cujo núcleo polinomial tenha Laplaciano não nulo pode ser determinado. Por outro lado, informação a priori é implicitamente introduzida se o método de inversão de momentos se baseia na aproximação da anomalia pela série truncada obtida de sua expansão em multipolos. Dado um centro de expansão qualquer, o truncamento da série impõe uma condição de regularização sobre as superfícies equipotenciais do corpo anômalo, que permite estimar univocamente os momentos e combinações lineares de momentos que são os coeficientes das funções-bases da expansão em multipolos. Assim, uma distribuição de massa equivalente à real é postulada, sendo o critério de equivalência especificado pela condição de ajuste entre os campos observado e calculado com a série truncada em momentos de uma ordem máxima pré-estabelecida. Os momentos da distribuição equivalente de massa foram identificados como a solução estacionária de um sistema de equações diferenciais lineares de 1a. ordem, para a qual se asseguram unicidade e estabilidade assintótica. Para a série retendo momentos até 2a. ordem, é implicitamente admitido que o corpo anômalo seja convexo e tenha volume finito, que ele esteja suficientemente distante do plano de medida e que a sua distribuição espacial de massa apresente três planos ortogonais de simetria. O método de inversão de momentos baseado na série truncada (IMT) é adaptado para o caso magnético. Para este caso, mostramos que, para assegurar unicidade e estabilidade assintótica, é suficiente pressupor, além da condição de regularização, a condição de que a magnetização total tenha direção e sentido constantes, embora desconhecidos. O método IMT baseado na série de 2a. ordem (IMT2) é aplicado a anomalias gravimétricas e magnéticas tridimensionais sintéticas. Mostramos que se a fonte satisfaz as condições exigidas, boas estimativas da sua massa ou vetor momento de dipolo anômalo total, da posição de seu centro de massa ou de momento de dipolo e das direções de seus três eixos principais são obtidas de maneira estável. O método IMT2 pode falhar parcialmente quando a fonte está próxima do plano de medida ou quando a anomalia tem efeitos localizados e fortes de um corpo pequeno e raso e se tenta estimar os parâmetros de um corpo grande e profundo. Definimos por falha parcial a situação em que algumas das estimativas obtidas podem não ser boas aproximações dos valores verdadeiros. Nas duas situações acima descritas, a profundidade do centro da fonte (maior) e as direções de seus eixos principais podem ser erroneamente estimadas, embora que a massa ou vetor momento de dipolo anômalo total e a projeção do centro desta fonte no plano de medida ainda sejam bem estimados. Se a direção de magnetização total não for constante, o método IMT2 pode fornecer estimativas erradas das direções dos eixos principais (mesmo se a fonte estiver distante do plano de medida), embora que os demais parâmetros sejam bem estimados. O método IMT2 pode falhar completamente se a fonte não tiver volume finito. Definimos por falha completa a situação em que qualquer estimativa obtida pode não ser boa aproximação do valor verdadeiro. O método IMT2 é aplicado a dados reais gravimétricos e magnéticos. No caso gravimétrico, utilizamos uma anomalia situada no estado da Bahia, que se supõe ser causada por um batólito de granito. Com base nos resultados, sugerimos que as massas graníticas geradoras desta anomalia tenham sido estiradas na direção NNW e adelgaçadas na direção vertical durante o evento compressivo que causou a orogênese do Sistema de Dobramentos do Espinhaço. Além disso, estimamos que a profundidade do centro de massa da fonte geradora é cerca de 20 km. No caso magnético, utilizamos a anomalia de um monte submarino situado no Golfo da Guiné. Com base nos resultados, estimamos que o paleopolo magnético do monte submarino tem latitude 50°48'S e longitude 74°54'E e sugerimos que não exista contraste de magnetização expressivo abaixo da base do monte submarino.
Resumo:
Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.
Resumo:
A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.
Resumo:
Apresentamos um novo método para estimar o relevo do embasamento de bacias sedimentares através da extensão analítica da expressão da placa Bouguer para contraste de densidade entre o pacote sedimentar e o embasamento decrescendo monotonicamente com a profundidade de acordo com uma lei hiperbólica. O método requer ruído contido nos dados gravimétricos tenha desvio padrão inferior a 0,01 mGal. As estimativas do relevo do embasamento são obtidas nas posições espaciais localizadas diretamente abaixo de cada observação. A metodologia foi aplicada a dados sintéticos de bacias sedimentares simuladas apresentando relevo do embasamento suave. O método produziu relevo do embasamento estimado próximo do relevo simulado. O método foi também aplicado a três conjuntos de dados reais: Bacia do Recôncavo (Brasil), Graben do Büyük Menderes (Turquia) e Graben de San Jacinto (Estados Unidos). As soluções produzidas pelo método proposto apresentaram estimativas de profundidades máximas em acordo com as informações geológicas disponíveis: 6 km para Bacia do Recôncavo, 1,6 km para Vale do Büyük Menderes e 2,2 km para Graben de San Jacinto.
Resumo:
Este trabalho apresenta uma metodologia para o estudo da ambiguidade na interpretação de dados geofísicos. Várias soluções alternativas, representativas da região de maior ambiguidade no espaço de parâmetros são obtidas, sendo posteriormente grupadas e ordenadas pela análise fatorial modo Q. Esta metodologia foi aplicada a dados sintéticos de campo potencial simulando-se causas de ambiguidade como discretização e truncamento da anomalia e a presença de ruídos aleatório e geológico. Um único prisma foi usado como modelo interpretativo, sendo a espessura a principal causa de ambiguidade tanto na gravimetria como na magnetometria. Segue-se a profundidade do topo sempre associada à espessura, quando o sinal da anomalia é alto. Quando a anomalia tem sinal baixo, a largura torna-se o segundo parâmetro mais importante, também associada à espessura. Ao contrário da presença de interferências geológicas, a presença de ruído aleatório nos campos, não é fator importante na ambiguidade. A aplicação da metodologia a dados reais ilustra o papel desta análise na caracterização de soluções alternativas e a importância da informação a priori na caracterização das causas de ambiguidade. A metodologia apresentada pode ser empregada em diversos estágios de um programa de prospecção fornecendo em cada estágio uma análise dos principais fatores causadores da ambiguidade, que poderá ser util no planejamento dos estágios seguintes. Comparada a outros métodos de análise de ambiguidade, como por exemplo regiões de confiança, a metodologia estudada destaca-se por não precisar satisfazer premissas estatísticas sobre a distribuição dos erros.
Resumo:
Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.
Resumo:
Dois métodos de filtragem são combinados neste trabalho com a finalidade de ressaltar determinadas feições, em um mapa aeromagnético, tais como lineamentos e anomalias de grande porte, provindos do embasamento. A filtragem visual consiste na observação estereoscópica de pares de mapas, especialmente elaborados para este fim. A filtragem numérica consiste na eliminação dos componentes espectrais indesejáveis (ruído) e no realce dos componentes espectrais de interesse (sinal). Ambos os métodos foram aplicados a mapas aeromagnéticos da Bacia do Médio Amazonas. As operações de filtragem numérica foram todas efetuadas no domínio dos espaços, através de convolução dos dados com filtros de dimensões 13x13. A análise preliminar do espectro é enfatizada como guia na elaboração de filtros. Os resultados da aplicação de cada filtro são discutidos em detalhe. Além das filtragens visual e numérica, vários modelos de falhas e de anomalias do intraembasamento e do supraembasemento são apresentados. A análise de modelos constitui um método de interpretação independente e complementar dos métodos de filtragens. Uma interpretação estrutural do embasamento da Bacia do Médio Amazonas é incluída. As direções principais dos lineamentos aeromagnéticos são E-W, NW60°, N-S, NF45° e NE6O°. Dois grabens sao bem evidenciados um com direção N-S, o mais recente próximo à borda do Alto do Purus. O outro, mais antigo, situa-se a leste do primeiro e tem direção NE45°. Duas anomalias de grande e médio porte (15-60km) possuem magnetização remanente com altos valores de inclinação negativa, o que corrobora a posição muito mais ao sul da Bacia Amazônica, no Paleozóico. Na integração dos dados aeromagnéticos com outros dados geofísicos, como sísmica e gravimetria, e resultados de fotointerpretação geológica, a consistência das informações independentes, em relação à interpretação aeromagnética, concorre para aumentar a viabilidade e a confiabilidade das técnicas aplica das neste trabalho.
Resumo:
Apesar das grandes vantagens decorrentes da interpretação conjunta de dados geofísicos, a aplicação da inversão simultânea destes dados tem sido pouco estudada, principalmente a nível de simulação. Este trabalho foi desenvolvido com intuito de cobrir parte desta deficiência. Neste trabalho, foi utilizado o método dos mínimos quadrados para comparar os resultados obtidos a partir de: a) inversão dos grupos de dados gravimétricos, magnéticos e resistivos tomados separadamente; b) inversão simultânea destes grupos de dados combinados dois a dois; c) inversão simultânea dos três grupos de dados. O trabalho é desenvolvido a partir de dados teóricos onde são simuladas diversas situações geológicas. A comparação dos resultados é efetuada a partir das estimativas dos parâmetros obtidos por cada inversão, pelos desvios padrões de cada parâmetro (inversão gravimetria-magnetometria para o ruído Gaussiano) e pela redução da ambiguidade, manifestada pela dependência das estimativas em relação a aproximação inicial dos parâmetros. Na maioria dos casos estudados as inversões conjuntas dos dados combinados dois a dois apresentam resultados bem superiores àqueles obtidos usando-se apenas um dos grupos de dados isoladamente, seja nas estimativas dos parâmetros, seja na redução da ambiguidade. Por sua vez, a inversão conjunta dos três grupos de dados apresentam resultados semelhantes às inversões dos grupos de dados combinados dois a dois, contudo em alguns casos a inversão conjunta dos três grupos de dados é a única totalmente independente da aproximação inicial. Dados gravimétricos e magnéticos de duas anomalias reais foram invertidos, produzindo sempre curvas estimadas bem ajustadas aos valores observados.
Resumo:
A ambiguidade na inversão de dados de geofísica de poço é estudada através da análise fatorial Q-modal. Este método é baseado na análise de um número finito de soluções aceitáveis, que são ordenadas, no espaço de soluções, segundo a direção de maior ambiguidade. A análise da variação dos parâmetros ao longo dessas soluções ordenadas permite caracterizar aqueles que são mais influentes na ambiguidade. Como a análise Q-modal é baseada na determinação de uma região de ambiguidade, obtida de modo empírico a partir de um número finito de soluções aceitáveis, é possível analisar a ambiguidade devida não só a erros nas observações, como também a pequenos erros no modelo interpretativo. Além disso, a análise pode ser aplicada mesmo quando os modelos interpretativos ou a relação entre os parâmetros não são lineares. A análise fatorial é feita utilizando-se dados sintéticos, e então comparada com a análise por decomposição em valores singulares, mostrando-se mais eficaz, uma vez que requer premissas menos restritivas, permitindo, desse modo, caracterizar a ambiguidade de modo mais realístico. A partir da determinação dos parâmetros com maior influência na ambiguidade do modelo é possível reparametrizá-lo, agrupando-os em um único parâmetro, redefinindo assim o modelo interpretativo. Apesar desta reparametrização incorrer na perda de resolução dos parâmetros agrupados, o novo modelo tem sua ambiguidade bastante reduzida.
Resumo:
O presente método postula uma variação hiperbólica para o contraste de densidade de uma bacia sedimentar em função da profundidade, e tem dois objetivos: (1) delinear o relevo do embasamento de uma bacia, conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície da bacia e o fator de decaimento do contraste de densidade com a profundidade; (2) estimar, além do relevo, o valor do contraste de densidade na superfície de uma bacia sedimentar e o fator de decaimento do contraste de densidade com a profundidade, sendo fornecida a anomalia gravimétrica e a profundidade do embasamento em alguns pontos da bacia. Nos dois casos o modelo interpretativo é um conjunto de prismas retangulares verticais justapostos, cujas espessuras, que são parâmetros a serem estimados, representam a profundidade da interface de separação entre os sedimentos e o embasamento. As soluções obtidas nos dois problemas acima formulados são estáveis devido à incorporação de informações adicionais sobre a suavidade do relevo estimado, e o conhecimento da profundidade do relevo do embasamento em alguns pontos, fornecido por furos de sondagem. O método foi testado em anomalias gravimétricas sintéticas produzidas pela simulação de bacias sedimentares com relevos suaves. Os resultados mostraram relevos com boa resolução e valores estimados do contraste de densidade na superfície da bacia e do fator de decaimento do contraste de densidade com a profundidade, próximos aos verdadeiros, indicando dessa maneira o potencial do método em interpretações gravimétricas de bacias sedimentares. O método foi aplicado à anomalia Bouguer da Bacia do Recôncavo, Brasil, delineando um relevo com um valor para a profundidade máxima de cerca de 6 km, semelhante ao estimado em interpretações sísmicas. As estimativas para o contraste de densidade na superfície da Bacia e o fator de decaimento com a profundidade foram -0,30 g/cm3 e 30 km, respectivamente, produzindo uma estimativa para a compactação máxima dos sedimentos da ordem de 4%.
Resumo:
O presente trabalho apresenta um método que utiliza uma função hiperbólica para descrever o decaimento do contraste de densidade com a profundidade em aterros sanitários e lixões, e consiste de duas abordagens: (1) o mapeamento da base de um lixão ou de um aterro sanitário conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade; (2) estimação do contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade a partir do conhecimento da anomalia gravimétrica e do relevo da base do lixão ou do aterro sanitário; uma variante desta última abordagem utiliza os valores conhecidos de profundidade desses ambientes para gerar a anomalia ajustada e estimar o valor do contraste de densidade na superfície e o fator de decaimento do contraste com a profundidade através da minimização da norma Euclidiana do vetor de resíduos entre as observações e o ajuste. Em ambas abordagens o modelo interpretativo é representado por um conjunto de prismas retangulares justapostos, cujas espessuras são os parâmetros a serem determinados. As soluções encontradas através das duas abordagens são estáveis devido à incorporação de informação sobre a suavidade do relevo estimado. O método foi aplicado a dados sintéticos produzidos pela simulação de aterros sanitários e lixões com até 15 m de profundidades e de relevos suaves. Os resultados das interpretações gravimétricas foram consistentes e revelaram a eficácia do método tanto na abordagem (1) como na abordagem (2). O método também foi aplicado à anomalia Bouguer residual do aterro sanitário da Fazenda Thomas, Indiana, USA, indicando que o contraste de densidade do aterro pode ou ser constante ou apresentar variação máxima de 0,09 g/cm3.
Resumo:
Apresentamos um novo método de inversão linear bidimensional de dados gravimétricos produzidos por bacias sedimentares com relevo do embasamento descontínuo. O método desenvolvido utiliza um modelo interpretativo formado por um conjunto de fitas horizontais bidimensionais justapostas cujas espessuras são os parâmetros a serem estimados. O contraste de densidade entre o embasamento e os sedimentos é presumido constante e conhecido. As estimativas das espessuras foram estabilizadas com o funcional da Variação Total (VT) que permite soluções apresentando descontinuidades locais no relevo do embasamento. As estimativas do relevo são obtidas através da resolução de um sistema de equações lineares, resolvido na norma L1. Como métodos lineares subestimam as estimativas de profundidade do embasamento de bacias maiores que cerca de 500 m, amplificamos as estimativas de profundidade através da modificação da matriz associada ao modelo interpretativo de fitas. As estimativas obtidas através deste procedimento são em geral ligeiramente superestimadas. Desse modo, elas são corrigidas através de uma correção definida pela expressão da placa Bouguer. Testes em dados sintéticos e reais produziram resultados comparáveis aos produzidos pelo método não linear, mas exigiram menor tempo computacional. A razão R entre os tempos exigidos pelo método não linear e o método proposto cresce com o número de observações e parâmetros. Por exemplo, para 60 observações e 60 parâmetros, R é igual a 4, enquanto para 2500 observações e 2500 parâmetros R cresce para 16,8. O método proposto e o método de inversão não linear foram aplicados também em dados reais do Steptoe Valley, Nevada, Estados Unidos, e da ponte do POEMA, no Campus do Guamá em Belém, produzindo soluções similares às obtidas com o método não linear exigindo menor tempo computacional.
Resumo:
Apresentamos um novo método para inversão gravimétrica da distribuição espacial do contraste de densidade no plano horizontal, baseado na combinação da maximização da entropia de ordem zero com a minimização da entropia de ordem um. O topo e a base das fontes gravimétricas são presumidos ser planos e horizontais e o modelo interpretativo consiste de uma malha de prismas justapostos em ambas às direções horizontais, sendo os contrastes de densidade de cada prisma os parâmetros a serem estimados. A maximização da entropia de ordem zero é similar ao vínculo de suavidade global, enquanto a minimização da entropia de ordem um favorece descontinuidades na distribuição do contraste de densidade. Conseqüentemente a combinação judiciosa de ambas pode levar a soluções apresentando regiões com contrastes de densidade virtualmente constantes (no caso de corpos homogêneos), separadas por descontinuidades abruptas. O método foi aplicado a dados sintéticos simulando a presença de corpos intrusivos em sedimentos. A comparação dos resultados com aqueles obtidos através do método da suavidade global mostra que ambos os métodos localizam as fontes igualmente bem, mas o delineamento de seus contornos é efetuado com maior resolução pela regularização entrópica, mesmo no caso de fontes com 100 m de largura separadas entre si por uma distância de 50 m. No caso em que o topo da fonte causadora não é plano nem horizontal, tanto a regularização entrópica como a suavidade global produzem resultados semelhantes. A metodologia apresentada, bem como a suavidade global foram aplicadas a dois conjuntos de dados reais produzidos por intrusões em rochas metamórficas. O primeiro é proveniente da região de Matsitama, no nordeste de Botswana, centro sul da África. A aplicação das duas metodologias a estes dados produziu resultados similares, indicando que o topo das fontes não é plano nem horizontal. O segundo conjunto provém da região da Cornuália, Inglaterra e produziu uma distribuição estimada de contraste de densidade virtualmente constante para a regularização entrópica e oscilante para a suavidade global, indicando que a fonte gravimétrica apresenta topo aproximadamente plano e horizontal, o que é confirmado pela informação geológica disponível.