8 resultados para Incidence function model
em Universidade Federal do Pará
Resumo:
This article proposes a deterministic radio propagation model using dyadic Green's function to predict the value of the electric field. Dyadic is offered as an efficient mathematical tool which has symbolic simplicity and robustness, as well as taking account of the anisotropy of the medium. The proposed model is an important contribution for the UHF band because it considers climatic conditions by changing the constants of the medium. Most models and recommendations that include an approach for climatic conditions, are designed for satellite links, mainly Ku and Ka bands. The results obtained by simulation are compared and validated with data from a Digital Television Station measurement campaigns conducted in the Belém city in Amazon region during two seasons. The proposed model was able to provide satisfactory results by differentiating between the curves for dry and wet soil and these corroborate the measured data, (the RMS errors are between 2-5 dB in the case under study).
Resumo:
A migração com amplitudes verdadeiras de dados de reflexão sísmica, em profundidade ou em tempo, possibilita que seja obtida uma medida dos coeficientes de reflexão dos chamados eventos de reflexão primária. Estes eventos são constituídos, por exemplo, pelas reflexões de ondas longitudinais P-P em refletores de curvaturas arbitrárias e suaves. Um dos métodos mais conhecido é o chamado migração de Kirchhoff, através do qual a imagem sísmica é produzida pela integração do campo de ondas sísmicas, utilizando-se superfícies de difrações, denominadas de Superfícies de Huygens. A fim de se obter uma estimativa dos coeficientes de reflexão durante a migração, isto é a correção do efeito do espalhamento geométrico, utiliza-se uma função peso no operador integral de migração. A obtenção desta função peso é feita pela solução assintótica da integral em pontos estacionários. Tanto no cálculo dos tempos de trânsito como na determinação da função peso, necessita-se do traçamento de raios, o que torna a migração em situações de forte heterogeneidade da propriedade física um processo com alto custo computacional. Neste trabalho é apresentado um algoritmo de migração em profundidade com amplitudes verdadeiras, para o caso em que se tem uma fonte sísmica pontual, sendo o modelo de velocidades em subsuperfície representado por uma função que varia em duas dimensões, e constante na terceira dimensão. Esta situação, conhecida como modelo dois-e-meio dimensional (2,5-D), possui características típicas de muitas situações de interesse na exploração do petróleo, como é o caso da aquisição de dados sísmicos 2-D com receptores ao longo de uma linha sísmica e fonte sísmica 3-D. Em particular, é dada ênfase ao caso em que a velocidade de propagação da onda sísmica varia linearmente com a profundidade. Outro tópico de grande importância abordado nesse trabalho diz respeito ao método de inversão sísmica denominado empilhamento duplo de difrações. Através do quociente de dois empilhamentos com pesos apropriados, pode-se determinar propriedades físicas e parâmetros geométricos relacionados com a trajetória do raio refletido, os quais podem ser utilizados a posteriori no processamento dos dados sísmicos, visando por exemplo, a análise de amplitudes.
Resumo:
No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.
Resumo:
As descargas atmosféricas representam um dos maiores fatores de riscos para o setor elétrico, especialmente na Amazônia, uma região do mundo identificada com altas densidades de ocorrências e picos de corrente de raios. Nesse contexto, a rede STARNET (Sferics Timing And Ranging NETwork), único sistema de detecção de descargas elétricas atmosféricas, terrestre, gratuito, e contínuo, cobrindo toda a região Amazônica, foi escolhido para a geração de padrões de descargas atmosféricas necessários a otimização dos sistemas de proteção das linhas de transmissão por meio de sistema de monitoramento de descargas atmosféricas. Contudo, o funcionamento intermitente, observado nos diagramas operacionais das várias estações da rede STARNET, afeta o desempenho global do sistema, em especial a eficiência de detecção. Por isso, foi desenvolvido um modelo de uniformização dos dados de descargas atmosféricas em função da configuração da rede (número e localização dos sensores em operação), no objetivo final de editar mapas de índice ceráunico e densidades de raios confiáveis. Existem regiões da Amazônia que sempre apresentam anomalias positivas de densidade de raios como as regiões de Belém e Manaus, bem como o estado do Tocantins que afeitam as linhas de transmissão. Depois, a incidência de raios nas linhas de transmissão na Amazônia foi estimada a partir da distribuição de pico de correntes registrada pela RDR-SIPAM e da densidade de raios corrigida da rede STARNET. A avaliação do desempenho da rede STARNET tendo como referencia à rede de detecção de raios do Sistema de Proteção da Amazônia (RDR-SIPAM) mostrou também uma forte dependência da eficiência de detecção da rede STARNET em função do pico de corrente das descargas atmosféricas.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
Este trabalho tem por objetivo a aplicação de um método de migração com amplitudes verdadeiras, considerando-se um meio acústico onde a velocidade de propagação varia linearmente com a profundidade. O método de migração é baseado na teoria dos raios e na integral de migração de Kirchhoff, procurando posicionar de forma correta os refletores e recuperar os respetivos coeficientes de reflexão. No processo de recuperação dos coeficientes de reflexão, busca-se corrigir o fator de espalhamento geométrico de reflexões sísmicas primárias, sem o conhecimento a priori dos refletores procurados. Ao considerar-se configurações fonte-receptor arbitrárias, as reflexões primárias podem ser imageadas no tempo ou profundidade, sendo as amplitudes do campo de ondas migrado uma medida dos coeficientes de reflexão (função do ângulo de incidência). Anteriormente têm sido propostos alguns algoritmos baseados na aproximação de Born ou Kirchhoff. Todos são dados em forma de um operador integral de empilhamento de difrações, que são aplicados à entrada dos dados sísmicos. O resultado é uma seção sísmica migrada, onde cada ponto de reflexão é imageado com uma amplitude proporcional ao coeficiente de reflexão no ponto. No presente caso, o processo de migração faz uso de um modelo com velocidade que apresenta uma distribuição que varia linearmente com a profundidade, conhecido também como gradiente constante de velocidade. O esquema de migração corresponde a uma versão modificada da migração de empilhamento por difração e faz uso explícito da teoria do raio, por exemplo, na descrição de tempos de trânsito e amplitudes das reflexões primárias, com as quais a operação de empilhamento e suas propriedades podem ser entendidas geometricamente. Efeitos como o espalhamento geométrico devido à trajetória do raio levam a distorção das amplitudes. Estes efeitos têm que ser corregidos durante o processamento dos dados sísmicos. Baseados na integral de migração de Kirchhoff e na teoria paraxial dos raios, foi derivada a função peso e o operador da integral por empilhamento de difrações para um modelo sísmico 2,5-D, e aplicado a uma serie de dados sintéticos em ambientes com ruído e livre de ruído. O resultado mostra a precisão e estabilidade do método de migração em um meio 2,5-D como ferramenta para obter informação sobre as propriedades de refletividade da subsuperfície da terra. Neste método não são levados em consideração a existência de caústicas nem a atenuação devido a fricção interna.
Resumo:
Neste trabalho, foi realizado um estudo de mapeamento de áreas de incidência e previsões para os casos de dengue na área urbana de Belém. Para as previsões foi utilizada à incidência de dengue com a precipitação pluviométrica a partir de modelos estatísticos, baseados na metodologia de Box e Jenkins de series temporais. O período do estudo foi de 05 anos (2007-2011). Na pesquisa temos métodos multivariados de series temporais, com uso de função de transferência e modelos espaciais, em que se analisou a existência de autocorrelações espaciais na variável em estudo. Os resultados das análises dos dados de incidência de casos de dengue e precipitação mostraram que, o aumento no número de casos de dengue acompanha o aumento na precipitação, demonstrando a relação direta entre o número de casos de dengue e a precipitação nos anos em estudo. O modelo de previsão construído para a incidência de casos de dengue apresentou um bom ajuste com resultados satisfatórios podendo, neste caso, ser utilizado na previsão da dengue. Em relação à análise espacial, foi possível uma visualização da incidência de casos na área urbana de Belém, com as respectivas áreas de incidência, mostrando os níveis de significância em porcentagem. Para o período estudado observou-se o comportamento e as variações dos casos de dengue, com destaque para quatro bairros: Marco, Guamá, Pedreira e Tapanã, com possíveis influências destes bairros nas áreas (bairros) vizinhas. Portanto, o presente estudo evidencia a contribuição para o planejamento das ações de controle da dengue, ao servir de instrumento no apoio às decisões na área de saúde pública.