19 resultados para Atenuação

em Universidade Federal do Pará


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas bacias sedimentares da região Amazônica, a geração e o acúmulo de hidrocarboneto estão relacionados com a presença das soleiras de diabásio. Estas rochas magmáticas intrusivas possuem grandes contrastes de impedância com as rochas sedimentares encaixantes, resultando em múltiplas externas e internas, com amplitudes semelhantes às das reflexões sísmicas primárias. Estas múltiplas podem predominar sobre as informações oriundas de interfaces mais profundas, dificultando o processamento, a interpretação e o imageamento da seção de sísmica. O objetivo da presente tese é realizar a atenuação de múltiplas em seções sintéticas fontecomum (CS), através da combinação dos métodos Wiener-Hopf-Levinson de predição (WHLP) e o do empilhamento superfície-de-reflexão-comum (CRS), aqui denominando pela sigla WHLPCRS. O operador de deconvolução é calculado com as amplitudes reais do sinal sísmico e traço-a-traço, o que consideramos como uma melhor eficiência para a operação de atenuação. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, utilizando o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, e usados para calcular o operador WHLP-CRS. No desenvolvimento do presente trabalho, visamos evitar a inconveniência da seção processada ZO; desenhar e aplicar operadores na configuração CS; e estender o método WHL para camadas curvas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A motivação geológica deste trabalho reside no imageamento de estruturas de bacias sedimentares da região Amazônica, onde a geração e o acúmulo de hidrocarboneto estão relacionados com a presença de soleiras de diabásio. A motivação sísmica reside no fato de que essas rochas intrusivas possuem grandes contrastes de impedância com a rocha encaixante, o que resulta em múltiplas, externas e internas, com amplitudes semelhantes as das primárias. O sinal sísmico das múltiplas podem predominar sobre o sinal das reflexões primárias oriundas de interfaces mais profundas, o que pode dificultar o processamento, a interpretação e o imageamento da seção sísmica temporal. Neste trabalho, estudamos a atenuação de múltiplas em seções sintéticas fonte-comum (FC) através da comparação de dois métodos. O primeiro método resulta da combinação das técnicas Wiener-Hopf-Levinson de predição (WHLP) e o de empilhamento superfície-de-reflexão-comum (CRS), e denominando WHLP-CRS, onde o operador é desenhado exclusivamente no domínio do tempo-espaço. O segundo método utilizado é o filtro de velocidade (ω-k) aplicado após o empilhamento superfície-de-reflexão (CRS), onde o operador é desenhado exclusivamente no domínio bidimensional de freqüência temporal-espacial. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, e utiliza o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, que são usadas para calcular o operador WHLP-CRS. O cálculo do filtroω-k é realizado no domínio da freqüência temporal-espacial, onde os eventos são selecionados para corte ou passagem. O filtro (ω-k) é classificado como filtro de corte, com alteração de amplitude, mas não de fase, e limites práticos são impostos pela amostragem tempo-espaço. Em termos práticos, concluímos que, para o caso de múltiplas, os eventos separados no domínio x-t não necessariamente se separam no domínio ω-k, o que dificulta o desenho de um operador ω-k semelhante em performance ao operador x-t.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como objetivos a análise e atenuação de múltiplas de superfície livre, o processamento e o imageamento de dados sísmicos marinhos visando obter imagens migradas de utilidade à interpretação geológica voltada à exploração de petróleo. Foi dada uma atenção sistemática ao estudo de múltiplas de superfície livre do ponto de vista do filtro de predição baseado na teoria da comunicação com o objetivo de melhor aplicar o filtro WH de deconvolução preditiva, na etapa de processamento, posterior à correção NMO, embora outros métodos possam ser considerados mais competitivos. A identificação e a atenuação de reflexões múltiplas em dados sísmicos reais continua como um grande desafio no processamento de dados sísmicos, uma vez que elas são consideradas como ruído. No entanto, sendo este ruído classificado como coerente, várias técnicas foram desenvolvidas objetivando sua atenuação para evitar erros em cascata nas etapas posteriores como processamento, marcação de eventos, inversão tomográfica, imageamento, e finalmente na interpretação geológica das imagens obtidas. Outro aspecto do trabalho foi estabelecer um fluxograma de processamento-imageamento sendo a atenuação de múltiplas de superfície livre uma etapa central. Foram obtidas seções migradas em tempo e em profundidade onde se permite a interpretação que se deseja. O desenvolvimento deste trabalho foi realizado com os pacotes CWP/SU e MatLab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese enfoca o estudo de métodos para compensação de harmônicos em sistemas de energia elétrica e aborda diversos aspectos relacionados à presença de harmônicos nos mesmos, como a apresentação de conceitos e definições em sistemas não-senoidais e estratégias de compensação de potência. Enfatiza-se neste estudo, exemplificado por meio de medições e simulações realizadas, a influência da forma de onda de alimentação sobre cargas não-lineares; a interação harmônica entre a tensão de suprimento e a corrente das cargas, devido à impedância série do sistema; e a influência mútua entre cargas não-lineares em paralelo, como possível forma de atenuação de harmônicos. Para simular e predizer o impacto causado por cargas não-lineares em um sistema, assim como a implementação de ações para mitigar esses impactos, visando à melhoria da qualidade da energia, é necessário o conhecimento das respostas das mesmas. Como produto do presente trabalho, destacam-se as técnicas desenvolvidas para a modelagem de cargas nãolineares sob diferentes condições de alimentação, em especial o uso de técnicas de inteligência computacional, como o sistema neuro-fuzzy e as redes neurais artificiais; assim como o emprego da série de Volterra para predição do comportamento das cargas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo da perda de propagação, nas cidades da região amazônica, envolve ambiente caracterizado pelo clima tropical e, suburbano densamente arborizado. Levando consideração à importância da faixa ISM 5,8 GHz, esta dissertação apresenta um modelo propagação para a faixa de frequência em questão, agregando as características da atenuação experimentada pela onda de rádio quando se propaga em ambientes de cidades típicas região amazônica. Para tanto, medidas de potência recebida foram coletadas em 335 clientes fixos, distribuídos em 12 cidades na região norte do Brasil, sendo estes atendidos pelo programa de inclusão digital do estado do Pará, Navega Pará. Também foram realizadas medidas com mobilidade no campus da Universidade Federal do Pará (UFPA). Apresenta ainda o desempenho do modelo proposto sobre outros modelos (Modelo SUI e COST231-Hata) descritos na literatura, para redes sem fio fixas e com mobilidade. As métricas desempenho utilizadas foram o erro RMS e o desvio padrão com relação aos dados medidos. O ajuste dos parâmetros do modelo proposto é realizado através do método de mínimos quadrados lineares, aplicado em duas etapas para diminuir a incerteza sobre os parâmetros ajustados. O modelo proposto alcançou um erro RMS de 3,8 dB e desvio padrão de 2,3 dB, superando os demais modelos que obtiveram erros RMS acima de 10 dB e desvios padrão acima de 5 dB. Os resultados obtidos mostram a sua eficiência sobre outros modelos para predição de perdas na faixa de 5,8 GHz em sistemas fixos e móveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A atrofia é uma resposta imediata do músculo em situações de tensão e carga reduzida e caracteriza-se por mudanças morfológicas, aumento da proteólise muscular, perda de massa e redução da área da fibra que estão implicadas em déficits funcionais, afetando assim a qualidade de vida dos indivíduos. Rupturas tendíneas ocasionam atrofia muscular devido à intrínseca relação funcional existente entre ambas as estruturas, músculos-tendões. Considerando a injúria tendínea, trabalho prévio do nosso grupo identificou que a inibição da síntese de óxido nítrico localmente a injúria acelerou a recuperação histológica no tendão e a melhora funcional em animais tenotomizados. Desta forma, a proposta do trabalho é avaliar os efeitos da inibição nitrérgica local no tendão em relação ao padrão de regeneração muscular. Portanto, para gerar atrofia muscular esquelética, o trabalho utiliza o modelo experimental de ruptura do tendão calcâneo com posterior sutura. Os grupos foram divididos em controle, ruptura, ruptura+veículo (Salina 0,9%) e ruptura+L-nitro-arginina-metil-éster (L-NAME, 5mM). As amostras foram coletadas 14 e 21 dias seguintes ao procedimento cirúrgico experimental. Objetivando avaliar a dosagem de proteínas, o método de Bradford foi utilizado. As amostras também foram reservadas para processamento histológico qualitativo e quantitativo da área da fibra muscular e presença de lesões de núcleo central. Assim como no trabalho prévio de nosso grupo, acreditamos que a ação da droga restringiu-se ao local, pois não ocasionou fortes influências em relação ao peso corporal dos animais, que foi medido nos dias 0, 7, 14 e 21. O grupo tratado com L-NAME apresentou diminuição significativa no número de lesões de núcleo central no 14º dia pós-operatório e aumento nos níveis de proteína e área da fibra no 21º dia. Em conjunto, nossos resultados sugerem que houve efeito benéfico da inibição local da NOS após a ruptura com relação à atenuação da atrofia, contribuindo para acelerar a regeneração muscular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A conservação e gestão da zona costeira da região amazônica merecem atenção especial, devido à riqueza de seus recursos naturais. O presente estudo visa avaliar os impactos dos eventos naturais e atividades humanas na praia de Atalaia, situada no estado do Pará (Brasil), e o desenvolvimento de diretrizes para a implementação de programas de gestão costeira. Os dados foram coletados entre novembro/2008 e novembro/2010. Quatro conjuntos de variáveis foram avaliados: (i) variáveis físicas (climatologia, hidrodinâmica e morfodinâmica), (ii) variáveis hidrológicas (temperatura da água, salinidade, pH, turbidez, oxigênio dissolvido e nutrientes inorgânicos dissolvidos, clorofila a e níveis de coliformes termotolerantes), (iii) desenvolvimento urbano e (iv) distribuição espacial de serviços e infraestrutura. Os resultados indicam que o clima e as condições hidrodinâmicas foram os principais fatores responsáveis pelas flutuações na qualidade de água, turbidez, oxigênio dissolvido, nutrientes inorgânicos dissolvidos e concentrações de clorofila a. A descarga de esgoto doméstico não tratado foi responsável pela contaminação bacteriológica, embora a rápida turbulência decorrente da alta energia hidrodinâmica do ambiente tenha limitado a contaminação por coliformes termotolerantes. Esta alta energia hidrodinâmica, principalmente durante as marés equinociais de sizígia e a falta de planejamento urbano gera outros problemas, tais como a erosão costeira. A área de estudo é caracterizada por altas taxas pluviométricas (> 1900 mm durante a estação chuvosa), ventos de NE com velocidades médias mensais superiores a 4,36 m/s na estação seca e 3,06 m/s na estação chuvosa, condições de macromaré (alcance da maré > 4,0 m), velocidades moderadas de correntes de maré (superior a 0,5 m/s) e alturas de ondas significantes superior a 1,5 m. Em março e junho (meses chuvosos), a corrente de maré vazante alcançou um máximo de 0,4 m/s. O ciclo de maré foi fracamente assimétrico com a maré vazante durando mais de 6 horas e 40 minutos. A energia das ondas foram fracamente moduladas pela maré baixa devido à atenuação das ondas em bancos de areia. A temperatura da água foi relativamente homogênea (27,4°C a 29,3°C). A salinidade variou de 5,7 (junho) a 37,4 (novembro). A água foi bem oxigenada (superior a 9,17 mg/L), turva (superior a 118 NTU), alcalina (acima de 8,68) e eutrófica (máximo de 2,36 μmol/L para nitrito, 24,34 μmol/L para nitrato, 0,6 μmol/L para fosfato e 329,7 μmol/L para silicato), além de apresentar altas concentrações de clorofila a (acima de 82 mg/m³). As condições naturais observadas no presente estudo indicam a necessidade de uma revisão dos critérios hidrológicos usados para avaliação de praias por agências nacionais e internacionais e sua adaptação para a realidade da costa amazônica. A falta de sistema de saneamento público levou a contaminação bacteriológica e a perda da qualidade da água. Com relação ao estado morfodinâmico, as condições dissipativas foram encontradas durante alta a moderada energia hidrodinâmica (condições equinociais e não-equinociais), porém em novembro as maiores alturas de ondas geraram características de barred dissipative, enquanto nos outros meses características nonbarred foram dominantes. Desta forma, o modelo proposto por Masselink & Short (1993) parece não ser ideal para ser aplicado em praias com características similares a praia de Atalaia, na qual a energia das ondas é modulada pela presença de bancos de areia durante algumas fases da maré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi desenvolvido um estudo da subsuperfície rasa para investigar a possibilidade de contaminação do subsolo por líquidos usados no tratamento de couros em área industrial. O estudo foi realizado na área da indústria Couro do Norte, Bairro de Maracacuera, no Distrito Industrial de Icoaraci (município de Belém-Pará). Durante o estudo foram feitas medidas para a determinação do fluxo de água do primeiro aqüífero e aplicada metodologia geofísica com a finalidade de detectar a possível contaminação do subsolo por poluentes liberados pelo curtume. As metodologias geofísicas utilizadas foram: eletrorresistividade (na forma de imageamento e través de sondagens verticais), potencial espontâneo, eletromagnético (Slingram) e radar de penetração no solo (GPR). A interpretação dos dados eletromagnéticos permitiu identificar a presença de zonas mais condutivas (provável pluma de contaminação) e zonas mais resistivas (blocos lateríticos). A distribuição dos potenciais medidos através do Método do Potencial Espontâneo indicou o sentido do fluxo subterrâneo local. Com as Sondagens Elétricas Verticais determinaram-se os valores de resistividade em subsuperfície para os diferentes horizontes correlacionando-os sempre com as informações obtidas no Caminhamento Elétrico. Através dos dados de GPR identificou-se a presença de blocos lateríticos, tubulações de metal e zonas com elevada atenuação (zona de sombra) que indicam a presença de contaminação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, a decomposição em valores singulares (DVS) de uma matriz A, n x m, que representa a anomalia magnética, é vista como um método de filtragem bidimensional de coerência que separa informações correlacionáveis e não correlacionáveis contidas na matriz de dados magnéticos A. O filtro DVS é definido através da expansão da matriz A em autoimagens e valores singulares. Cada autoimagem é dada pelo produto escalar dos vetores de base, autovetores, associados aos problemas de autovalor e autovetor das matrizes de covariância ATA e AAT. Este método de filtragem se baseia no fato de que as autoimagens associadas a grandes valores singulares concentram a maior parte da informação correlacionável presente nos dados, enquanto que a parte não correlacionada, presumidamente constituída de ruídos causados por fontes magnéticas externas, ruídos introduzidos pelo processo de medida, estão concentrados nas autoimagens restantes. Utilizamos este método em diferentes exemplos de dados magnéticos sintéticos. Posteriormente, o método foi aplicado a dados do aerolevantamento feito pela PETROBRÁS no Projeto Carauari-Norte (Bacia do Solimões), para analisarmos a potencialidade deste na identificação, eliminação ou atenuação de ruídos e como um possível método de realçar feições particulares da anomalia geradas por fontes profundas e rasas. Este trabalho apresenta também a possibilidade de introduzir um deslocamento estático ou dinâmico nos perfis magnéticos, com a finalidade de aumentar a correlação (coerência) entre eles, permitindo assim concentrar o máximo possível do sinal correlacionável nas poucas primeiras autoimagens. Outro aspecto muito importante desta expansão da matriz de dados em autoimagens e valores singulares foi o de mostrar, sob o ponto de vista computacional, que a armazenagem dos dados contidos na matriz, que exige uma quantidade n x m de endereços de memória, pode ser diminuída consideravelmente utilizando p autoimagens. Assim o número de endereços de memória cai para p x (n + m + 1), sem alterar a anomalia, na reprodução praticamente perfeita. Dessa forma, concluímos que uma escolha apropriada do número e dos índices das autoimagens usadas na decomposição mostra potencialidade do método no processamento de dados magnéticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização dos métodos indutivos de propagação E.M. na exploração mineral em regiões tropicais, apresenta grandes dificuldades devido a presença de uma camada superficial condutiva (manto de intemperismo) comumente encontrada nestas regiões. Na região Amazônica, o manto apresenta-se bastante desenvolvido e condutivo, e em regiões semi-áridas, pode-se formar uma fina crosta superficial de sal. Em conseqüência disto, a interpretação dos dados E.M. obtidos para modelos que não consideram uma cobertura condutiva levam a erros consideráveis. Objetivando-se estudar os efeitos do manto sobre anomalias VLF devidas a corpos tabulares inclinados em contato com o manto (manto ohmico), foi realizada uma série de experimentos através do modelamento analógico, considerando-se diferentes parâmetros de resposta para o manto e o corpo. O manto de intemperismo foi simulado por soluções de cloreto de amônia (NH4Cl) dispostas horizontalmente e o corpo condutor por chapas de grafite colocadas em posições inclinadas verticalmente. Utilizou-se quatro corpos condutores e três mantos com diferentes espessuras e condutividades, simulando, desta forma, diversas situações geológicas. Os resultados são dados por simples situações dos corpos localizados em um meio não condutor (ar), onde os parâmetros variados são: profundidade do topo, condutividade e mergulho do corpo. Os efeitos da condutividade da cobertura são amplamente ilustrados e avaliados. Para a análise dos resultados, foi plotado um conjunto de curvas considerando-se os valores pico-a-pico das anomalias de "tilt angle" e de elipsidade. Os resultados foram sintetizados em um outro conjunto de curvas reunidas em diagramas de Argand. Estando ou não o manto presente, observou-se, tanto para o tilt angle quanto para a elipsidade, o efeito do aumento da profundidade é o de reduzir a magnitude pico-a-pico e a forma do pico da anomalia, fazendo com que este afaste-se do ponto de "cross-over". Para um condutor de mesma espessura, o aumento da condutividade causa um ligeiro aumento nas anomalias de tilt angle, e uma atenuação nas anomalias de elipsidade. O efeito geral na variação do mergulho do condutor é o de causar uma assimetria nos perfis de tilt angle e de elipsidade. O aumento da condutância do manto de intemperismo causa um acréscimo nas anomalias de elipsidade e uma ligeira diminuição nas anomalias de tilt angle; porém, a partir de um certo valor de condutância do manto (mantos mais condutivos) tanto as anomalias de tilt angle quanto as anomalias de elipsidade começam a atenuar. Há rotação de fase no sentido anti-horário, sendo mais intensa para grandes valores de número de indução do corpo. Na presença do manto, o corpo parece estar a uma profundidade inferior à verdadeira e a ser menos condutivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A medição de parâmetros físicos de reservatórios se constitui de grande importância para a detecção de hidrocarbonetos. A obtenção destes parâmetros é realizado através de análise de amplitude com a determinação dos coeficientes de reflexão. Para isto, faz-se necessário a aplicação de técnicas especiais de processamento capazes de corrigir efeitos de divergência esférica. Um problema pode ser estabelecido através da seguinte questão: Qual o efeito relativamente mais importante como responsável pela atenuação de amplitudes, o espalhamento geométrico ou a perda por transmissividade? A justificativa desta pergunta reside em que a correção dinâmica teórica aplicada a dados reais visa exclusivamente o espalhamento geométrico. No entanto, a análise física do problema por diferentes direções põe a resposta em condições de dúvida, o que é interessante e contraditório com a prática. Uma resposta embasada mais fisicamente pode dar melhor subsídio a outros trabalhos em andamento. O presente trabalho visa o cálculo da divergência esférica segundo a teoria Newman-Gutenberg e corrigir sismogramas sintéticos calculados pelo método da refletividade. O modelo-teste é crostal para que se possa ter eventos de refração crítica além das reflexões e para, com isto, melhor orientar quanto à janela de aplicação da correção de divergência esférica o que resulta em obter o então denominado “verdadeiras amplitudes”. O meio simulado é formado por camadas plano-horizontais, homogêneas e isotrópicas. O método da refletividade é uma forma de solução da equação de onda para o referido modelo, o que torna possível um entendimento do problema em estudo. Para se chegar aos resultados obtidos foram calculados sismogramas sintéticos através do programa P-SV-SH desenvolvido por Sandmeier (1998), e curvas do espalhamento geométrico em função do tempo para o modelo estudado como descrito por Newman (1973). Demonstramos como uma das conclusões que a partir dos dados do modelo (velocidades, espessuras, densidades e profundidades) uma equação para a correção de espalhamento geométrico visando às “verdadeiras amplitudes” não é de fácil obtenção. O objetivo maior então deveria ser obter um painel da função de divergência esférica para corrigir as verdadeiras amplitudes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta estudo geofísico de parte de orla fluvial sujeita à erosão, com o objetivo primordial de avaliar o seu uso na detecção de áreas degradadas pela erosão em estágio crítico, antes de seu desmoronamento. Esta área está situada ao longo de 600 m à margem do rio Guamá, entre a ponte do rio Tucunduba e o Porto de Canoagem, dentro do campus da Universidade Federal do Pará (UFPA), na cidade de Belém no Estado do Pará (Brasil). Conta, em alguns trechos, com diferentes tipos de contenção de erosão, entre os quais muro de concreto e sacos de cimento. A área é consequentemente, um laboratório para se testar a eficiência da Geofísica em detectar as zonas em que a ação da erosão, embora ainda não observável em superfície, atue, de modo a auxiliar obras de contenção da orla antes do seu colapso. Foram utilizados quatro métodos geofísicos: Potencial Espontâneo (SP), Eletrorresistividade, Slingram (LIN) e Radar de Penetração do Solo (GPR). As medidas foram levantadas durante a maré baixa e a maré alta na tentativa de mapear os caminhos preferenciais subsuperficiais para a entrada de água trazida pela maré alta e, por esse meio, para o trabalho erosivo. O efeito global da maré é aumentar as oscilações nas medidas de SP, Eletrorresistividade e LIN e aumentar a intensidade das reflexões obtidas com o GPR em relação às medidas obtidas com maré baixa. Na maré alta, as medidas mostram, em relação às medidas obtidas na maré baixa: I) Em zona com erosão, a redução da voltagem obtida com o método SP, a diminuição da resistividade obtida com imageamento realizado com o método da Eletrorresistividade, o aumento da condutividade LIN bem como tanto o aumento da intensidade das reflexões como a perturbação da continuidade dos refletores obtidos com o Método GPR II) Em zona com contenção, o aumento da voltagem SP, o aumento da resistividade obtida com Eletrorresistividade, a diminuição da condutividade LIN e, finalmente, a atenuação de reflexões obtidas com o GPR e redução do efeito global da maré. A despeito das dificuldades, os resultados demonstram que a Geofísica pode ser uma ferramenta auxiliar na previsão de locais onde a queda erosiva do terreno provocado por ela está prestes a ocorrer bem como na análise da eficácia da obra de contenção realizada.