16 resultados para Hyperbolic polynomials
Resumo:
O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.
Resumo:
Este trabalho é uma pesquisa narrativa autobiográfica, que expõe a análise das minhas praxeologias, no contexto do meu desenvolvimento profissional, como professor de matemática. O foco da análise recai sobre os diversos conflitos praxeológicos que vivi durante a elaboração e aplicação em sala de aula de uma proposta didática para ensinar operações polinomiais na sétima série (oitavo ano) do ensino fundamental. Com esta pesquisa pretendi responder a seguinte questão: Quais conexões entre aritmética e álgebra determinaram as minhas praxeologias durante a ampliação didática que desenvolvi, para ensinar adição, subtração, multiplicação e divisão de polinômios, na sétima série (oitavo ano) do ensino fundamental? Para analisar as minhas próprias praxeologias a partir da proposta didática que elaborei, assumi a Teoria Antropológica do Didático (TAD) de Yves Chevallard como referencial teórico principal. A análise que fiz das minhas próprias praxeologias envolveu sistema de numeração decimal, operações aritméticas fundamentais, operações polinomiais, tipos de tarefas e técnicas, universo cognitivo e equipamento praxeológico. Os resultados apontam que as minhas relações pessoais com tipos de objetos ostensivos e não ostensivos e tipos de tarefas e técnicas presentes ou não na proposta didática que elaborei, revelam quais praxeologias passadas e presentes compunham os diversos momentos do meu desenvolvimento profissional como professor de matemática. Assim, antes da graduação vivi as praxeologias de professor leigo, durante e após a especialização o meu universo cognitivo passou por conflitos praxeológicos, revelando que as sujeições institucionais conformavam as minhas praxeologias para ensinar as operações polinomiais.
Resumo:
Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.
Resumo:
Analisa-se experimentalmente o processo de extração do óleo essencial de rizomas de priprioca (Cyperus articulatus L.) por arraste com vapor d’água saturado, em um protótipo em escala de bancada. Por meio de experimentos estatisticamente planejados, estimam-se as condições ótimas o processo de modo a maximizar as variáveis de resposta rendimento em óleo e teor de mustacona, componente majoritário do óleo essencial de priprioca, em função de variáveis operacionais de entrada do processo. As variáveis independentes e respectivos níveis são: carga de rizomas de priprioca, em gramas (64, 200, 400, 600, 736); granulometria dos rizomas, em milímetros (0,61; 1,015; 1,6; 2,19; 2,58) e tempo de extração, em minutos (40, 60, 90, 120, 140). Utilizando um planejamento composto central, com auxílio do aplicativo Statistica® 7.0, são propostos modelos matemáticos para as respostas em função das variáveis independentes isoladas e de suas combinações. Constata-se que o rendimento em óleo essencial e os teores de mustacona podem ser estimados adequadamente por modelos polinomiais de segunda ordem. São obtidos simultaneamente maiores rendimentos em óleo e teores de mustacona, quando a carga de rizomas varia de 105 a 400 gramas para tempos de extração compreendidos entre 105 e 140 minutos.
Resumo:
Verificar a influência de fatores do meio ambiente sobre características de produção e reprodução em grupos genéticos de bovinos leiteiros explorados em algumas fazendas nos municípios de Irituia e Mãe do rio no Nordeste Paraense. Foi utilizada uma média de 454 animais em lactação mestiças de Holandês, Pardo-Suíça e Girolando pertencentes a duas fazendas com sistema de criação semi-intensivo na época menos chuvosa. As médias e desvio-padrão para produção de leite total foram iguais a 1097,36 ± 330,47 Kg, com coeficiente de variação igual a 25,64% sendo que o grupo genético Holandesa, a época de parto menos chuvosa e o ano de 2007 apresentaram maior produção. O período de lactação apresentou efeito linear e crescente sobre a produção de leite total. O período de lactação apresentou média e desvio-padrão iguais a 218,17 ± 43,17 dias, a maior média para o período de lactação foi observada na época mais chuvosa e a média do período de lactação diminuiu no decorrer dos anos 2007 e 2008. A média e desvio padrão de intervalo entre partos encontrado no rebanho foi igual a 398,975 ± 60,85 dias. A época menos chuvosa apresentou uma média de intervalo entre partos menor que época mais chuvosa e a média de intervalo entre partos foi reduzindo a partir de 2006. A média de idade ao primeiro parto encontrado foi de 38,57 ± 5,81 meses. Os coeficientes de determinação foram maiores que 0,85 (R2a > 0,85), sendo que para o grupo genético Holandesa, os ajustes foram melhores em relação aos ajustes dos outros dois grupos genéticos. Para o grupo genético Girolando, o formato da curva de lactação diferiu dos outros dois grupos genéticos dificultando o ajuste pelas funções Gama Incompleta, Linear Hiperbólica e Polinomial Inversa. Os ajustes promovidos pela função polinomial inversa apresentaram ligeiro desvio em relação às outras duas funções. O grupo genético Holandesa apresentou produção ao pico e persistência um pouco mais elevados em relação aos outros grupos genéticos.
Resumo:
Dados referentes a 1.719 controles de produção de leite de 357 fêmeas predominantemente da raça Murrah, filhas de 110 reprodutores, com partos distribuídos entre os anos de 1974 e 2004, obtidos do Programa de Melhoramento Genético de Bubalinos (PROMEBUL) com adição de registros do rebanho pertencente à EMBRAPA Amazônia Oriental - EAO, localizada em Belém, Pará. Os registros foram usados para comparar modelos de regressão aleatória na estimação de componentes de variância e predição de valores genéticos dos reprodutores utilizando a. função polinomial de Legendre, variando de segunda à quarta ordem. O modelo de regressão aleatória incluiu os efeitos de rebanho-ano, mês de parto, coeficientes de regressão para idade da fêmea (para descrever a parte fixa da curva de lactação) e coeficientes de regressão relacionados ao efeito genético direto e de ambiente permanente. A comparação entre modelos foram realizadas por meio do Critério de Informação de Akaike. O modelo de regressão aleatória que utilizou a terceira ordem de polinômio de Legendre, com quatro classes de resíduo para o ambiente temporário, foi o que melhor descreveu a variação genética aditiva da produção de leite. A herdabilidade estimada variou entre 0,08 a 0,40. A correlação genética entre produções mais próximas foram próximas da unidade, mas em idades mais distantes a correlação foi baixa. A correlação de Spearman e de Pearson entre os valores genéticos preditos em todas as situações foram próximas da unidade.
Resumo:
Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Apresentamos um novo método para estimar o relevo do embasamento de bacias sedimentares através da extensão analítica da expressão da placa Bouguer para contraste de densidade entre o pacote sedimentar e o embasamento decrescendo monotonicamente com a profundidade de acordo com uma lei hiperbólica. O método requer ruído contido nos dados gravimétricos tenha desvio padrão inferior a 0,01 mGal. As estimativas do relevo do embasamento são obtidas nas posições espaciais localizadas diretamente abaixo de cada observação. A metodologia foi aplicada a dados sintéticos de bacias sedimentares simuladas apresentando relevo do embasamento suave. O método produziu relevo do embasamento estimado próximo do relevo simulado. O método foi também aplicado a três conjuntos de dados reais: Bacia do Recôncavo (Brasil), Graben do Büyük Menderes (Turquia) e Graben de San Jacinto (Estados Unidos). As soluções produzidas pelo método proposto apresentaram estimativas de profundidades máximas em acordo com as informações geológicas disponíveis: 6 km para Bacia do Recôncavo, 1,6 km para Vale do Büyük Menderes e 2,2 km para Graben de San Jacinto.
Resumo:
A simulação de uma seção sísmica de afastamento nulo (AN) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhor a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda, recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Também, seguindo este novo conceito de imageamento sísmico está surgindo um método para simular seções com afastamento comum (AC) a partir de dados de cobertura múltipla usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento finito. Esta nova aproximação dos tempos de trânsito depende de cinco atributos cinemáticos. Neste trabalho, a partir da aproximação dos tempos de trânsito paraxiais em relação a um raio central com afastamento finito, derivamos uma nova equação do tempo de trânsito usando a condição de um ponto difrator em profundidade, reduzindo a equação original para quatro parâmetros. Para ambas aproximações (reflexão e difração), mostramos a superfície de empilhamento SRC com afastamento finito (SRC-AF). Considerando um modelo sintético, realizamos um estudo comparativo das aproximações dos tempos de trânsito para as quatro configurações sísmicas (fonte comum (FC), receptor comum (RC), ponto-médio-comum (PMC) e afastamento comum (AC)). Para analisar o comportamento do operador SRC-AF, quando este é perturbado, discutimos sua sensibilidade em relação a cada um dos cinco parâmetros (K1, K2, K3, βS e βG). Esta análise de sensibilidade é realizada em duas formas: Sensibilidade através da primeira derivada e Sensibilidade no Empilhamento SRC-AF. Após realizar a análise de sensibilidade utilizamos uma nova condição, K2 = 0 e assim, obtemos uma nova aproximação, agora dependente de três parâmetros. Usando essas aproximações hiperbólicas (em função de cinco, quatro e três parâmetros), propomos um algoritmo para a simulação de seções AC a partir de dados de cobertura múltipla. Finalmente, é apresentado um estudo da zona de Fresnel, com o objetivo de determinar a delimitação da abertura da superfície de empilhamento SRC-AF.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (AN) a partir de dados de cobertura múltipla pode ser realizada através do empilhamento sísmico, o qual é um método de imageamento de reflexão sísmica muito utilizado na indústria. O processo de empilhamento sísmico permite reduzir a quantidade de dados e melhorar a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda. Recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Este novo formalismo pode ser estendido para construir seções de afastamento-nulo (AN) a partir de dados de cobertura múltipla, usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento-nulo (AN), para o caso de uma linha de medição com topografia suave e rugosa. Essas duas aproximações de tempos de trânsito também dependem de três atributos cinemáticos de frentes de ondas. Nesta dissertação, apresenta-se uma revisão teórica da teoria paraxial do raio para a obtenção das aproximações dos tempos de trânsito paraxiais considerando uma linha de medição com topografia rugosa e suave. A partir das aproximações dos tempos de trânsito paraxiais em relação a um raio central com afastamento-nulo (AN), foram obtidas duas novas aproximações de tempos de trânsito usando a condição de um ponto difrator em profundidade, reduzindo as equações originais para dois parâmetros. Também foram obtidas as aproximações para o caso de raios paraxiais com afastamento-nulo (AN). Para as aproximações de reflexão e difração utilizando um mesmo modelo sintético, foram comparadas através da representação gráfica as superfícies de empilhamento das aproximações dos tempos de trânsito para a topografia suave e rugosa. Em seguida, para analisar o comportamento dos operadores associados a reflexão e a difração, quando estes são perturbados, discutimos suas sensibilidades em relação a cada um dos três parâmetros (β0, KPIN, KN). Esta análise de sensibilidade foi realizada em duas formas: Sensibilidade através da perturbação de cada parâmetro visualizado nas superfícies de empilhamento SRC-TR e SDC-TR e da primeira derivada dos tempos de trânsito SRC-TR e SDC-TR. Finalmente, usando essas aproximações hiperbólicas em função de três e dois parâmetros e com base nos resultados da análise de sensibilidade, foi proposto um algoritmo para simular seções AN a partir de dados de cobertura múltipla.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
O presente trabalho consiste na formulação de uma metodologia para interpretação automática de dados de campo magnético. Desta forma, a sua utilização tornará possível a determinação das fronteiras e magnetização de cada corpo. Na base desta metodologia foram utilizadas as características de variações abruptas de magnetização dos corpos. Estas variações laterais abruptas serão representadas por polinômios descontínuos conhecidos como polinômios de Walsh. Neste trabalho, muitos conceitos novos foram desenvolvidos na aplicação dos polinômios de Walsh para resolver problemas de inversão de dados aeromagnéticos. Dentre os novos aspectos considerados, podemos citar. (i) - O desenvolvimento de um algoritmo ótimo para gerar um jôgo dos polinômios "quase-ortogonais" baseados na distribuição de magnetização de Walsh. (ii) - O uso da metodologia damped least squares para estabilizar a solução inversa. (iii) - Uma investigação dos problemas da não-invariância, inerentes quando se usa os polinômios de Walsh. (iv) - Uma investigação da escolha da ordem dos polinômios, tomando-se em conta as limitações de resolução e o comportamento dos autovalores. Utilizando estas características dos corpos magnetizados é possível formular o problema direto, ou seja, a magnetização dos corpos obedece a distribuição de Walsh. É também possível formular o problema inverso, na qual a magnetização geradora do campo observado obedece a série de Walsh. Antes da utilização do método é necessária uma primeira estimativa da localização das fontes magnéticas. Foi escolhida uma metodologia desenvolvida por LOURES (1991), que tem como base a equação homogênea de Euler e cujas exigências necessárias à sua utilização é o conhecimento do campo magnético e suas derivadas. Para testar a metodologia com dados reais foi escolhida uma região localizada na bacia sedimentar do Alto Amazonas. Os dados foram obtidos a partir do levantamento aeromagnético realizado pela PETROBRÁS.
Resumo:
O presente método postula uma variação hiperbólica para o contraste de densidade de uma bacia sedimentar em função da profundidade, e tem dois objetivos: (1) delinear o relevo do embasamento de uma bacia, conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície da bacia e o fator de decaimento do contraste de densidade com a profundidade; (2) estimar, além do relevo, o valor do contraste de densidade na superfície de uma bacia sedimentar e o fator de decaimento do contraste de densidade com a profundidade, sendo fornecida a anomalia gravimétrica e a profundidade do embasamento em alguns pontos da bacia. Nos dois casos o modelo interpretativo é um conjunto de prismas retangulares verticais justapostos, cujas espessuras, que são parâmetros a serem estimados, representam a profundidade da interface de separação entre os sedimentos e o embasamento. As soluções obtidas nos dois problemas acima formulados são estáveis devido à incorporação de informações adicionais sobre a suavidade do relevo estimado, e o conhecimento da profundidade do relevo do embasamento em alguns pontos, fornecido por furos de sondagem. O método foi testado em anomalias gravimétricas sintéticas produzidas pela simulação de bacias sedimentares com relevos suaves. Os resultados mostraram relevos com boa resolução e valores estimados do contraste de densidade na superfície da bacia e do fator de decaimento do contraste de densidade com a profundidade, próximos aos verdadeiros, indicando dessa maneira o potencial do método em interpretações gravimétricas de bacias sedimentares. O método foi aplicado à anomalia Bouguer da Bacia do Recôncavo, Brasil, delineando um relevo com um valor para a profundidade máxima de cerca de 6 km, semelhante ao estimado em interpretações sísmicas. As estimativas para o contraste de densidade na superfície da Bacia e o fator de decaimento com a profundidade foram -0,30 g/cm3 e 30 km, respectivamente, produzindo uma estimativa para a compactação máxima dos sedimentos da ordem de 4%.
Resumo:
O presente trabalho apresenta um método que utiliza uma função hiperbólica para descrever o decaimento do contraste de densidade com a profundidade em aterros sanitários e lixões, e consiste de duas abordagens: (1) o mapeamento da base de um lixão ou de um aterro sanitário conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade; (2) estimação do contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade a partir do conhecimento da anomalia gravimétrica e do relevo da base do lixão ou do aterro sanitário; uma variante desta última abordagem utiliza os valores conhecidos de profundidade desses ambientes para gerar a anomalia ajustada e estimar o valor do contraste de densidade na superfície e o fator de decaimento do contraste com a profundidade através da minimização da norma Euclidiana do vetor de resíduos entre as observações e o ajuste. Em ambas abordagens o modelo interpretativo é representado por um conjunto de prismas retangulares justapostos, cujas espessuras são os parâmetros a serem determinados. As soluções encontradas através das duas abordagens são estáveis devido à incorporação de informação sobre a suavidade do relevo estimado. O método foi aplicado a dados sintéticos produzidos pela simulação de aterros sanitários e lixões com até 15 m de profundidades e de relevos suaves. Os resultados das interpretações gravimétricas foram consistentes e revelaram a eficácia do método tanto na abordagem (1) como na abordagem (2). O método também foi aplicado à anomalia Bouguer residual do aterro sanitário da Fazenda Thomas, Indiana, USA, indicando que o contraste de densidade do aterro pode ou ser constante ou apresentar variação máxima de 0,09 g/cm3.