16 resultados para Hyperbolic smoothing
em Universidade Federal do Pará
Resumo:
O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.
Resumo:
Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).
Resumo:
Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.
Resumo:
O objetivo do trabalho foi determinar o tamanho adequado de amostra para estimar o volume de fustes de espécies florestais de uma população de árvores a serem cortadas no sistema de manejo florestal da empresa Cikel Brasil Verde Madeiras - Pará. Utilizaram-se as metodologias da amostragem sistemática e do estimador geoestatístico da krigagem ordinária com simulação sequencial, respectivamente para a escolha das amostras e estimação dos volumes dos fustes das árvores. Os resultados mostraram que os métodos podem ser utilizados no cálculo dos volumes de fustes de árvores. Entretanto, o método da krigagem apresenta um efeito de suavização, tendo como conseqüência uma subestimação dos volumes calculados. Neste caso, um fator de correção foi aplicado para minimizar o efeito da suavização. A simulação sequencial indicativa apresentou resultados mais precisos em relação à krigagem, uma vez que tal método apresentou algumas vantagens, tal como a não exigência de amostras com distribuições normais e ausência de efeito de suavização, característico dos métodos de interpolação.
Resumo:
Verificar a influência de fatores do meio ambiente sobre características de produção e reprodução em grupos genéticos de bovinos leiteiros explorados em algumas fazendas nos municípios de Irituia e Mãe do rio no Nordeste Paraense. Foi utilizada uma média de 454 animais em lactação mestiças de Holandês, Pardo-Suíça e Girolando pertencentes a duas fazendas com sistema de criação semi-intensivo na época menos chuvosa. As médias e desvio-padrão para produção de leite total foram iguais a 1097,36 ± 330,47 Kg, com coeficiente de variação igual a 25,64% sendo que o grupo genético Holandesa, a época de parto menos chuvosa e o ano de 2007 apresentaram maior produção. O período de lactação apresentou efeito linear e crescente sobre a produção de leite total. O período de lactação apresentou média e desvio-padrão iguais a 218,17 ± 43,17 dias, a maior média para o período de lactação foi observada na época mais chuvosa e a média do período de lactação diminuiu no decorrer dos anos 2007 e 2008. A média e desvio padrão de intervalo entre partos encontrado no rebanho foi igual a 398,975 ± 60,85 dias. A época menos chuvosa apresentou uma média de intervalo entre partos menor que época mais chuvosa e a média de intervalo entre partos foi reduzindo a partir de 2006. A média de idade ao primeiro parto encontrado foi de 38,57 ± 5,81 meses. Os coeficientes de determinação foram maiores que 0,85 (R2a > 0,85), sendo que para o grupo genético Holandesa, os ajustes foram melhores em relação aos ajustes dos outros dois grupos genéticos. Para o grupo genético Girolando, o formato da curva de lactação diferiu dos outros dois grupos genéticos dificultando o ajuste pelas funções Gama Incompleta, Linear Hiperbólica e Polinomial Inversa. Os ajustes promovidos pela função polinomial inversa apresentaram ligeiro desvio em relação às outras duas funções. O grupo genético Holandesa apresentou produção ao pico e persistência um pouco mais elevados em relação aos outros grupos genéticos.
Resumo:
Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Apresentamos um novo método para estimar o relevo do embasamento de bacias sedimentares através da extensão analítica da expressão da placa Bouguer para contraste de densidade entre o pacote sedimentar e o embasamento decrescendo monotonicamente com a profundidade de acordo com uma lei hiperbólica. O método requer ruído contido nos dados gravimétricos tenha desvio padrão inferior a 0,01 mGal. As estimativas do relevo do embasamento são obtidas nas posições espaciais localizadas diretamente abaixo de cada observação. A metodologia foi aplicada a dados sintéticos de bacias sedimentares simuladas apresentando relevo do embasamento suave. O método produziu relevo do embasamento estimado próximo do relevo simulado. O método foi também aplicado a três conjuntos de dados reais: Bacia do Recôncavo (Brasil), Graben do Büyük Menderes (Turquia) e Graben de San Jacinto (Estados Unidos). As soluções produzidas pelo método proposto apresentaram estimativas de profundidades máximas em acordo com as informações geológicas disponíveis: 6 km para Bacia do Recôncavo, 1,6 km para Vale do Büyük Menderes e 2,2 km para Graben de San Jacinto.
Resumo:
A simulação de uma seção sísmica de afastamento nulo (AN) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhor a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda, recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Também, seguindo este novo conceito de imageamento sísmico está surgindo um método para simular seções com afastamento comum (AC) a partir de dados de cobertura múltipla usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento finito. Esta nova aproximação dos tempos de trânsito depende de cinco atributos cinemáticos. Neste trabalho, a partir da aproximação dos tempos de trânsito paraxiais em relação a um raio central com afastamento finito, derivamos uma nova equação do tempo de trânsito usando a condição de um ponto difrator em profundidade, reduzindo a equação original para quatro parâmetros. Para ambas aproximações (reflexão e difração), mostramos a superfície de empilhamento SRC com afastamento finito (SRC-AF). Considerando um modelo sintético, realizamos um estudo comparativo das aproximações dos tempos de trânsito para as quatro configurações sísmicas (fonte comum (FC), receptor comum (RC), ponto-médio-comum (PMC) e afastamento comum (AC)). Para analisar o comportamento do operador SRC-AF, quando este é perturbado, discutimos sua sensibilidade em relação a cada um dos cinco parâmetros (K1, K2, K3, βS e βG). Esta análise de sensibilidade é realizada em duas formas: Sensibilidade através da primeira derivada e Sensibilidade no Empilhamento SRC-AF. Após realizar a análise de sensibilidade utilizamos uma nova condição, K2 = 0 e assim, obtemos uma nova aproximação, agora dependente de três parâmetros. Usando essas aproximações hiperbólicas (em função de cinco, quatro e três parâmetros), propomos um algoritmo para a simulação de seções AC a partir de dados de cobertura múltipla. Finalmente, é apresentado um estudo da zona de Fresnel, com o objetivo de determinar a delimitação da abertura da superfície de empilhamento SRC-AF.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (AN) a partir de dados de cobertura múltipla pode ser realizada através do empilhamento sísmico, o qual é um método de imageamento de reflexão sísmica muito utilizado na indústria. O processo de empilhamento sísmico permite reduzir a quantidade de dados e melhorar a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda. Recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Este novo formalismo pode ser estendido para construir seções de afastamento-nulo (AN) a partir de dados de cobertura múltipla, usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento-nulo (AN), para o caso de uma linha de medição com topografia suave e rugosa. Essas duas aproximações de tempos de trânsito também dependem de três atributos cinemáticos de frentes de ondas. Nesta dissertação, apresenta-se uma revisão teórica da teoria paraxial do raio para a obtenção das aproximações dos tempos de trânsito paraxiais considerando uma linha de medição com topografia rugosa e suave. A partir das aproximações dos tempos de trânsito paraxiais em relação a um raio central com afastamento-nulo (AN), foram obtidas duas novas aproximações de tempos de trânsito usando a condição de um ponto difrator em profundidade, reduzindo as equações originais para dois parâmetros. Também foram obtidas as aproximações para o caso de raios paraxiais com afastamento-nulo (AN). Para as aproximações de reflexão e difração utilizando um mesmo modelo sintético, foram comparadas através da representação gráfica as superfícies de empilhamento das aproximações dos tempos de trânsito para a topografia suave e rugosa. Em seguida, para analisar o comportamento dos operadores associados a reflexão e a difração, quando estes são perturbados, discutimos suas sensibilidades em relação a cada um dos três parâmetros (β0, KPIN, KN). Esta análise de sensibilidade foi realizada em duas formas: Sensibilidade através da perturbação de cada parâmetro visualizado nas superfícies de empilhamento SRC-TR e SDC-TR e da primeira derivada dos tempos de trânsito SRC-TR e SDC-TR. Finalmente, usando essas aproximações hiperbólicas em função de três e dois parâmetros e com base nos resultados da análise de sensibilidade, foi proposto um algoritmo para simular seções AN a partir de dados de cobertura múltipla.
Resumo:
A presente dissertação consta de estudos sobre deconvolução sísmica, onde buscamos otimizar desempenhos na operação de suavização, na resolução da estimativa da distribuição dos coeficientes de reflexão e na recuperação do pulso-fonte. Os filtros estudados são monocanais, e as formulações consideram o sismograma como o resultado de um processo estocástico estacionário, e onde demonstramos os efeitos de janelas e de descoloração. O principio aplicado é o da minimização da variância dos desvios entre o valor obtido e o desejado, resultando no sistema de equações normais Wiener-Hopf cuja solução é o vetor dos coeficientes do filtro para ser aplicado numa convolução. O filtro de deconvolução ao impulso é desenhado considerando a distribuição dos coeficientes de reflexão como uma série branca. O operador comprime bem os eventos sísmicos a impulsos, e o seu inverso é uma boa aproximação do pulso-fonte. O janelamento e a descoloração melhoram o resultado deste filtro. O filtro de deconvolução aos impulsos é desenhado utilizando a distribuição dos coeficientes de reflexão. As propriedades estatísticas da distribuição dos coeficientes de reflexão tem efeito no operador e em seu desempenho. Janela na autocorrelação degrada a saída, e a melhora é obtida quando ela é aplicada no operador deconvolucional. A transformada de Hilbert não segue o princípio dos mínimos-quadrados, e produz bons resultados na recuperação do pulso-fonte sob a premissa de fase-mínima. O inverso do pulso-fonte recuperado comprime bem os eventos sísmicos a impulsos. Quando o traço contém ruído aditivo, os resultados obtidos com auxilio da transformada de Hilbert são melhores do que os obtidos com o filtro de deconvolução ao impulso. O filtro de suavização suprime ruído presente no traço sísmico em função da magnitude do parâmetro de descoloração utilizado. A utilização dos traços suavizados melhora o desempenho da deconvolução ao impulso. A descoloração dupla gera melhores resultados do que a descoloração simples. O filtro casado é obtido através da maximização de uma função sinal/ruído. Os resultados obtidos na estimativa da distribuição dos coeficientes de reflexão com o filtro casado possuem melhor resolução do que o filtro de suavização.
Resumo:
O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
O presente método postula uma variação hiperbólica para o contraste de densidade de uma bacia sedimentar em função da profundidade, e tem dois objetivos: (1) delinear o relevo do embasamento de uma bacia, conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície da bacia e o fator de decaimento do contraste de densidade com a profundidade; (2) estimar, além do relevo, o valor do contraste de densidade na superfície de uma bacia sedimentar e o fator de decaimento do contraste de densidade com a profundidade, sendo fornecida a anomalia gravimétrica e a profundidade do embasamento em alguns pontos da bacia. Nos dois casos o modelo interpretativo é um conjunto de prismas retangulares verticais justapostos, cujas espessuras, que são parâmetros a serem estimados, representam a profundidade da interface de separação entre os sedimentos e o embasamento. As soluções obtidas nos dois problemas acima formulados são estáveis devido à incorporação de informações adicionais sobre a suavidade do relevo estimado, e o conhecimento da profundidade do relevo do embasamento em alguns pontos, fornecido por furos de sondagem. O método foi testado em anomalias gravimétricas sintéticas produzidas pela simulação de bacias sedimentares com relevos suaves. Os resultados mostraram relevos com boa resolução e valores estimados do contraste de densidade na superfície da bacia e do fator de decaimento do contraste de densidade com a profundidade, próximos aos verdadeiros, indicando dessa maneira o potencial do método em interpretações gravimétricas de bacias sedimentares. O método foi aplicado à anomalia Bouguer da Bacia do Recôncavo, Brasil, delineando um relevo com um valor para a profundidade máxima de cerca de 6 km, semelhante ao estimado em interpretações sísmicas. As estimativas para o contraste de densidade na superfície da Bacia e o fator de decaimento com a profundidade foram -0,30 g/cm3 e 30 km, respectivamente, produzindo uma estimativa para a compactação máxima dos sedimentos da ordem de 4%.
Resumo:
O presente trabalho apresenta um método que utiliza uma função hiperbólica para descrever o decaimento do contraste de densidade com a profundidade em aterros sanitários e lixões, e consiste de duas abordagens: (1) o mapeamento da base de um lixão ou de um aterro sanitário conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade; (2) estimação do contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade a partir do conhecimento da anomalia gravimétrica e do relevo da base do lixão ou do aterro sanitário; uma variante desta última abordagem utiliza os valores conhecidos de profundidade desses ambientes para gerar a anomalia ajustada e estimar o valor do contraste de densidade na superfície e o fator de decaimento do contraste com a profundidade através da minimização da norma Euclidiana do vetor de resíduos entre as observações e o ajuste. Em ambas abordagens o modelo interpretativo é representado por um conjunto de prismas retangulares justapostos, cujas espessuras são os parâmetros a serem determinados. As soluções encontradas através das duas abordagens são estáveis devido à incorporação de informação sobre a suavidade do relevo estimado. O método foi aplicado a dados sintéticos produzidos pela simulação de aterros sanitários e lixões com até 15 m de profundidades e de relevos suaves. Os resultados das interpretações gravimétricas foram consistentes e revelaram a eficácia do método tanto na abordagem (1) como na abordagem (2). O método também foi aplicado à anomalia Bouguer residual do aterro sanitário da Fazenda Thomas, Indiana, USA, indicando que o contraste de densidade do aterro pode ou ser constante ou apresentar variação máxima de 0,09 g/cm3.