19 resultados para Signalto Noise Ratio (SNR)

em Universidade Federal do Pará


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recentemente a sociedade está vivendo em meio a um aglomerado de dispositivos móveis com múltiplas interfaces sem fio que permitem que clientes móveis domésticos e corporativos solucionem problemas rotineiros no menor espaço de tempo e em diversas localizações. Por outro lado, a disponibilidade de diversas tecnologias de acesso sem fio como: Wi-Fi (Wireless Fidelity), WiMAX (Worldwide Interoperability for Microwave Access) e LTE (Long Term Evolution), proporcionam um cenário heterogêneo com diversas oportunidades de conectividade para o usuário de dispositivos com múltiplas interfaces. Alguns dos desafios atuais no contexto da concepção da então denominada NGN (Next Generation Networks) são o desenvolvimento de arcabouços e mecanismos que viabilizem tanto o suporte adequado à Qualidade de Serviço (QoS – Quality of Service) e à Qualidade de Experiência (QoE – Quality of Experience) para aplicações multimídia, quanto a garantia de equidade entre vazões de diferentes aplicações em ambiente heterogêneo. Esta dissertação propõe um arcabouço para o aprovisionamento de QoS e QoE em redes sem fio heterogêneas formada por redes WiMAX e Wi-Fi. Especificamente, nossa solução provê mapeamento estático de QoS entre as classes de serviços WiMAX e categorias de acesso Wi-Fi. Além disso, nossa proposta também combina funcionalidades de equidade entre vazões com a solução de mapeamento, a fim de alcançar um bom compromisso tanto para o operador da rede, quanto para o usuário, através de uma nova metodologia de coleta e calculo de vazão agregada e algoritmo de decisão de handover vertical. A avaliação quantitativa da proposta foi realizada através de modelos de simulação no ns-2 (Network Simulator). Os resultados de desempenho demonstram a eficiência da arquitetura em termos de métricas de QoS (vazão, vazão média e atraso) e QoE (PSRN - Peak Signal to Noise Ratio, SSIM - Structural Similarity Index e VQM - Video Quality Metric).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo o desenvolvimento de um modelo matemático capaz de ajustar dados obtidos através de campanhas de medição por meio de um protótipo de um cenário da tecnologia WiMAX. As campanhas de medição foram feitas na Universidade Federal do Pará. Foram utilizadas antenas WiMAX, sendo uma como servidor, localizada em cima do prédio do Laboratório de Planejamento de Redes de Alto Desempenho (LPRAD), e a outra, receptora, que ficou em cima de um móvel para que os pontos fossem coletados. O método de ajuste utilizado foi o dos Mínimos Quadrados Lineares. Por meio dos dados coletados, aplica-se o método e estuda seu comportamento, verificando o quanto a otimização foi eficiente nos casos apresentados. A utilização da tecnologia em questão como acesso à Internet em alguns programas como o NAVEGAPARÁ, a busca de melhoramentos ou criação de modelos de propagação e a análise cross-layer das métricas utilizadas no trabalho, como a influência da relação sinal-ruído na perda de quadros, são fatores motivadores para a pesquisa desta dissertação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A voz e a habilidade vocal são diferentes em cada indivíduo e em cada fase da vida. Devido aos escassos estudos sobre a qualidade vocal de meninos e adolescentes durante a puberdade, o presente estudo teve como objetivo quantificar os seguintes parâmetros da análise acústica da voz: frequência fundamental, jitter, shimmer, relação harmônico-ruído e intensidade. Para entender como se dá a variação da voz com o desenvolvimento de meninos e adolescentes, esses parâmetros foram correlacionados entre si e também com o grau do desenvolvimento puberal de sujeitos do sexo masculino. Métodos: Foram sujeitos desse estudo 110 indivíduos do sexo masculino, com idade entre 11 e 20 anos, estudantes de três escolas estaduais de Macapá, onde foi feita a coleta dos dados. Os sujeitos foram divididos em 4 grupos, 32 sujeitos com idade entre 11 e 12 anos compuseram o Grupo I, 29 sujeitos com idade entre 13 e 15 anos o Grupo II, o Grupo III foi composto por 30 sujeitos com idade entre 16 e 18 anos, e o Grupo IV por sujeitos com idade entre 19 e 20 anos. Todos os sujeitos foram submetidos à gravação da voz diretamente no computador com auxilio de microfone unidirecional. Solicitou-se emissão sustentada da vogal /é/ e fala encadeada: contagem de 1 a 10 e leitura de um parágrafo pré-estabelecido. Em seguida os sujeitos foram avaliados por um médico clínico geral para caracterização do desenvolvimento puberal de acordo com os estágios descritos por Tanner. A análise vocal foi realizada com o programa acústico Voz Metria®. Resultados: Os sujeitos apresentaram F0 média durante a vogal sustentada de 223,28 Hz, 249,86 Hz, 122,63 Hz e 127,61 Hz para os Grupos I, II, III e IV respectivamente. A F0 durante a fala encadeada foi de 217,09 Hz, 246,18 Hz, 117,27 Hz e 123,42 para os Grupos I, II, III e IV respectivamente. Shimmer apresentou valores aumentados nos quatro grupos. Jitter, intensidade e a relação harmônico-ruído mantiveram-se dentro dos padrões de normalidade estabelecidos pelo programa acústico utilizado. Quanto ao desenvolvimento puberal, a maioria dos sujeitos está em G3 (n=38; 34,5%) e G4 (n=42; 38,2%) e P3 (n=34; 31%) e P4 (n=36; 32,7%). O grau de desenvolvimento puberal está correlacionado com aF0 durante a fala encadeada (p<0,001) e com a F0 durante a emissão da vogal sustentada (p<0,001) e essa correlação foi estatisticamente significante entre G2 e G5, e G3 e G5. Conclusão: Até os 15 anos os parâmetros vocais acústicos são típicos da voz infantil. Dos 16 aos 20 anos há decréscimo significativo da F0, porém a voz ainda está em processo de estabilização, com valores aumentados de shimmer. F0 é o único parâmetro correlacionado com o grau de desenvolvimento puberal. A finalização do processo de muda vocal se apresentou, na população estudada, como um evento tardio em relação ao desenvolvimento puberal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ABSTRACT: The Kalman-Bucy method is here analized and applied to the solution of a specific filtering problem to increase the signal message/noise ratio. The method is a time domain treatment of a geophysical process classified as stochastic non-stationary. The derivation of the estimator is based on the relationship between the Kalman-Bucy and Wiener approaches for linear systems. In the present work we emphasize the criterion used, the model with apriori information, the algorithm, and the quality as related to the results. The examples are for the ideal well-log response, and the results indicate that this method can be used on a variety of geophysical data treatments, and its study clearly offers a proper insight into modeling and processing of geophysical problems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese descreve a aplicação de análise de séries temporais em perfis de poço. Através desta técnica é possível avaliar-se a repetição e a resolução vertical de perfis, e determinar-se o intervalo de amostragem e a velocidade de perfilagem ideais para diferentes perfis. A comparação entre três poços é também feita, baseada num mesmo tipo de perfil. Para tanto, na seqüência utilizada, procurou-se manter num mesmo domínio os dados cuja quantidade total de amostras (N) por perfil não ultrapassou 2048. Desses dados, foram inicialmente retirados o valor médio das amostras e o alinhamento polinomial algébrico eventualmente nelas embutido. Em seguida, foi efetuada a aplicação do ponderador cossenoidal, do filtro passa-alta, da janela Hanning, do cálculo da função coerência, do espectro de fase, da razão sinal-ruído e dos espectros de potência do sinal e do ruído, nesta ordem. Para a função coerência, fez-se necessário o cálculo dos níveis de confiança de 50%, 90% e 95%. O cálculo do primeiro nível teve por base a necessidade de se determinar a resolução vertical de alguns perfis, e dos demais, a fim de que fosse obtida uma informação referente à localização daqueles níveis para a coerência calculada. Em relação ao espectro de fase, seu cálculo surgiu da necessidade de se obter uma informação adicional a respeito dos perfis manipulados, ou seja, o conhecimento da ocorrência ou não de deslocamento relativo de profundidade entre a seção principal e a seção repetida. A razão sinal-ruído foi calculada no sentido de possibilitar a comparação, como elemento avaliador dos diversos tipos de perfis, com a coerência e o cálculo dos espectros de potência. Os espectros de potência do sinal e do ruído foram calculados para se ter mais um parâmetro de avaliação da seção repetida, já que em tese, os espectros de potência do sinal e do ruído da seção repetida devem ser iguais aos respectivos espectros da seção principal. Os dados utilizados na aplicação da metodologia proposta foram fornecidos pela PETROBRÁS e oriundos de quatro poços da Bacia Potiguar emersa. Por questões de sigilo empresarial, os poços foram identificados como poços A, B, C e D. A avaliação da repetição entre diferentes tipos de perfis indica que, para o poço A, o perfil micro-esférico (MSFL) tem repetição melhor do que o perfil de porosidade neutrônica (CNL), o qual tem, por sua vez, repetição melhor do que o perfil de raios gama normal (GR). Para os perfis do poço D, uma diminuição da velocidade de perfilagem de 550 m/h para 275 m/h é vantajosa apenas para o perfil de porosidade neutrônica. Já a velocidade de perfilagem de 920 m/h, utilizada, na obtenção dos perfis do poço C, é totalmente inadequada para os perfis de resistividade (MSFL, ILD e ILM). A diminuição do intervalo de amostragem de 0,20 m para 0,0508 m, nos perfis de raios gama e de porosidade neutrônica, e 0,0254 m para o perfil de densidade, apresenta bons resultados quando aplicada no poço D. O cálculo da resolução vertical indica, para o perfil de porosidade neutrônica, uma superioridade qualitativa em relação ao perfil de raios gama normal, ambos pertencentes ao poço A. Para o poço C, o perfil micro-esférico apresenta uma resolução vertical na mesma ordem de grandeza da resolução do perfil de raios gama do poço B, o que evidencia ainda mais a inconveniência da velocidade de perfilagem utilizada no poço C. Já para o poço D, o cálculo da resolução vertical indica uma superioridade qualitativa do perfil de densidade de alta resolução em relação ao perfil de raios gama de alta resolução. A comparação entre os poços A, B e D, levada a efeito através dos respectivos perfis de porosidade neutrônica normais, comprova que a presença de ruído aleatório, em geral, está diretamente ligada à porosidade da formação - uma maior porosidade indica uma presença maior de ruído e, por conseguinte, uma queda qualitativa no perfil obtido. A análise do espectro de fase de cada perfil indica um deslocamento em profundidade, existente entre as seções principal e repetida de todos os perfis do poço C. E isto pôde ser confirmado com a posterior superposição das seções.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento nulo (AN) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhor a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda, recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Também, seguindo este novo conceito de imageamento sísmico está surgindo um método para simular seções com afastamento comum (AC) a partir de dados de cobertura múltipla usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento finito. Esta nova aproximação dos tempos de trânsito depende de cinco atributos cinemáticos. Neste trabalho, a partir da aproximação dos tempos de trânsito paraxiais em relação a um raio central com afastamento finito, derivamos uma nova equação do tempo de trânsito usando a condição de um ponto difrator em profundidade, reduzindo a equação original para quatro parâmetros. Para ambas aproximações (reflexão e difração), mostramos a superfície de empilhamento SRC com afastamento finito (SRC-AF). Considerando um modelo sintético, realizamos um estudo comparativo das aproximações dos tempos de trânsito para as quatro configurações sísmicas (fonte comum (FC), receptor comum (RC), ponto-médio-comum (PMC) e afastamento comum (AC)). Para analisar o comportamento do operador SRC-AF, quando este é perturbado, discutimos sua sensibilidade em relação a cada um dos cinco parâmetros (K1, K2, K3, βS e βG). Esta análise de sensibilidade é realizada em duas formas: Sensibilidade através da primeira derivada e Sensibilidade no Empilhamento SRC-AF. Após realizar a análise de sensibilidade utilizamos uma nova condição, K2 = 0 e assim, obtemos uma nova aproximação, agora dependente de três parâmetros. Usando essas aproximações hiperbólicas (em função de cinco, quatro e três parâmetros), propomos um algoritmo para a simulação de seções AC a partir de dados de cobertura múltipla. Finalmente, é apresentado um estudo da zona de Fresnel, com o objetivo de determinar a delimitação da abertura da superfície de empilhamento SRC-AF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (AN) a partir de dados de cobertura múltipla pode ser realizada através do empilhamento sísmico, o qual é um método de imageamento de reflexão sísmica muito utilizado na indústria. O processo de empilhamento sísmico permite reduzir a quantidade de dados e melhorar a razão sinal/ruído. Baseado na aproximação hiperbólica dos tempos de trânsito dependente de três parâmetros ou atributos cinemáticos de frentes de onda. Recentemente, vem desenvolvendo-se um novo método para simular seções (AN) chamado método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC). Este novo formalismo pode ser estendido para construir seções de afastamento-nulo (AN) a partir de dados de cobertura múltipla, usando aproximações dos tempos de trânsito paraxiais na vizinhança de um raio central com afastamento-nulo (AN), para o caso de uma linha de medição com topografia suave e rugosa. Essas duas aproximações de tempos de trânsito também dependem de três atributos cinemáticos de frentes de ondas. Nesta dissertação, apresenta-se uma revisão teórica da teoria paraxial do raio para a obtenção das aproximações dos tempos de trânsito paraxiais considerando uma linha de medição com topografia rugosa e suave. A partir das aproximações dos tempos de trânsito paraxiais em relação a um raio central com afastamento-nulo (AN), foram obtidas duas novas aproximações de tempos de trânsito usando a condição de um ponto difrator em profundidade, reduzindo as equações originais para dois parâmetros. Também foram obtidas as aproximações para o caso de raios paraxiais com afastamento-nulo (AN). Para as aproximações de reflexão e difração utilizando um mesmo modelo sintético, foram comparadas através da representação gráfica as superfícies de empilhamento das aproximações dos tempos de trânsito para a topografia suave e rugosa. Em seguida, para analisar o comportamento dos operadores associados a reflexão e a difração, quando estes são perturbados, discutimos suas sensibilidades em relação a cada um dos três parâmetros (β0, KPIN, KN). Esta análise de sensibilidade foi realizada em duas formas: Sensibilidade através da perturbação de cada parâmetro visualizado nas superfícies de empilhamento SRC-TR e SDC-TR e da primeira derivada dos tempos de trânsito SRC-TR e SDC-TR. Finalmente, usando essas aproximações hiperbólicas em função de três e dois parâmetros e com base nos resultados da análise de sensibilidade, foi proposto um algoritmo para simular seções AN a partir de dados de cobertura múltipla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação consta de estudos sobre deconvolução sísmica, onde buscamos otimizar desempenhos na operação de suavização, na resolução da estimativa da distribuição dos coeficientes de reflexão e na recuperação do pulso-fonte. Os filtros estudados são monocanais, e as formulações consideram o sismograma como o resultado de um processo estocástico estacionário, e onde demonstramos os efeitos de janelas e de descoloração. O principio aplicado é o da minimização da variância dos desvios entre o valor obtido e o desejado, resultando no sistema de equações normais Wiener-Hopf cuja solução é o vetor dos coeficientes do filtro para ser aplicado numa convolução. O filtro de deconvolução ao impulso é desenhado considerando a distribuição dos coeficientes de reflexão como uma série branca. O operador comprime bem os eventos sísmicos a impulsos, e o seu inverso é uma boa aproximação do pulso-fonte. O janelamento e a descoloração melhoram o resultado deste filtro. O filtro de deconvolução aos impulsos é desenhado utilizando a distribuição dos coeficientes de reflexão. As propriedades estatísticas da distribuição dos coeficientes de reflexão tem efeito no operador e em seu desempenho. Janela na autocorrelação degrada a saída, e a melhora é obtida quando ela é aplicada no operador deconvolucional. A transformada de Hilbert não segue o princípio dos mínimos-quadrados, e produz bons resultados na recuperação do pulso-fonte sob a premissa de fase-mínima. O inverso do pulso-fonte recuperado comprime bem os eventos sísmicos a impulsos. Quando o traço contém ruído aditivo, os resultados obtidos com auxilio da transformada de Hilbert são melhores do que os obtidos com o filtro de deconvolução ao impulso. O filtro de suavização suprime ruído presente no traço sísmico em função da magnitude do parâmetro de descoloração utilizado. A utilização dos traços suavizados melhora o desempenho da deconvolução ao impulso. A descoloração dupla gera melhores resultados do que a descoloração simples. O filtro casado é obtido através da maximização de uma função sinal/ruído. Os resultados obtidos na estimativa da distribuição dos coeficientes de reflexão com o filtro casado possuem melhor resolução do que o filtro de suavização.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo desta tese foi desenvolver um magnetômetro à precessão nuclear para prospecção geofísica e estações-base magnéticas. O magnetômetro à precessão nuclear mede a intensidade total do campo magnético. Seu funcionamento é baseado na ressonância magnética nuclear. A medida de campo é feita pela de terminação da freqüência de precessão de núcleos de hidrogênio – prótons - de líquidos não viscosos no campo magnético terrestre. O magnetômetro é constituído de duas partes: o sensor e o instrumento de medida. O sensor é uma bobina solenoidal, cujo núcleo é preenchido com o líquido. Três líquidos diferentes foram testados; água, propanol e um querosene sintético. Optou-se pelo uso do querosene porque oferece maior amplitude no sinal de precessão, dando, conseqüentemente, maior relação sinal/ ruído. O sistema de medida contém os circuitos de sintonia e amplificação do sinal e, os circuitos lógicos para a programação da operação e contagem da freqüência de precessão. Cada ciclo de medida tem duração de 3 segundos, sendo 2,3s para a polarização e 0,7s para a recepção do sinal. São possíveis dois modos de operação: manual, reciclando automaticamente e por controle remoto. O sinal de precessão é amplificado seletivamente em uma das 14 faixas de sintonia, que cobrem medidas entre 22000 e 95000 gammas. A freqüência de precessão é multiplicada por um fator de 64 e contada durante um tempo igual a 0,36699s, determinado com base na razão giromagnética do próton. O número de pulsos contados é numericamente igual ao valor do campo magnético em gammas. A resposta pode ser lida em mostradores digitais ou na saída BCD paralela quando operando por controle remoto. A precisão da medida é de 1 gamma. O instrumento foi testado no campo para avaliar a relação sinal/ruído, gradiente suportável e consumo de potência. Nos testes de aplicação do protótipo, foram obtidos dados de variação diurna e realizaram-se levantamentos magnético de reconhecimento e detalhe em um sítio arqueológico na Ilha de Marajó, Pará. As respostas dos testes foram comparados com dois magnetômetros comerciais - o GP-70, McPhar e o G-816, Geometrics e, ainda, com dados do Observatório Magnético de Tatuoca-Pa. Em todos os casos, a comparação dos dados mostrou bom desempenho do magnetômetro em teste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma modelagem paramétrica (auto-regressiva) linear aplicável a estudos de propagação de televisão digital e telefonia celular para cidades densamente arborizadas. A modelagem proposta apresenta um forte embasamento estatístico e depende apenas de dados provenientes de medição, no caso dados relativos a potência recebida e o valor de PSNR (Peak Signal-to-Noise Ratio). Um algoritmo genético é utilizado no cálculo dos parâmetros de ajuste do modelo a um conjunto de dados. O trabalho foi realizado na faixa de televisão digital e foram analisadas duas variáveis: a potência recebida do sinal e o valor de PSNR. Foram executadas campanhas de medição na cidade de Belém. Nestas medições foram coletados dados de potência e gravados vídeos da programação diária de uma emissora de televisão. Os resultados podem ser aplicados no planejamento de serviços de telecomunicações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho de tese é apresentada uma nova técnica de empilhamento de dados sísmicos para a obtenção da seção de incidência normal ou afastamento fonte-receptor nulo, aplicável em meios bidimensionais com variações laterais de velocidade. Esta nova técnica denominada Empilhamento Sísmico pela Composição de Ondas Planas (empilhamento PWC) foi desenvolvida tomando como base os conceitos físicos e matemáticos da decomposição do campo de ondas em ondas planas. Este trabalho pode ser dividido em três partes: Uma primeira parte, onde se apresenta uma revisão da técnica de empilhamento sísmico convencional e do processo de decomposição do campo de ondas produzido a partir de fontes pontuais em suas correspondentes ondas planas. Na segunda parte, é apresentada a formulação matemática e o procedimento de aplicação do método de empilhamento sísmico pela composição de ondas planas. Na terceira parte se apresenta a aplicação desta nova técnica de empilhamento na serie de dados Marmousi e uma analise sobre a atenuação de ruído. A formulação matemática desta nova técnica de empilhamento sísmico foi desenvolvida com base na teoria do espalhamento aplicado a ondas sísmicas sob a restrição do modelo de aproximação de Born. Nesse sentido, inicialmente se apresenta a determinação da solução da equação de onda caustica para a configuração com afastamento fonte-receptor finito, que posteriormente é reduzido para a configuração de afastamento fonte-receptor nulo. Por outra parte, com base nessas soluções, a expressão matemática deste novo processo de empilhamento sísmico é resolvida dentro do contexto do modelo de aproximação de Born. Verificou-se que as soluções encontradas por ambos procedimentos, isto é, por meio da solução da equação da onda e pelo processo de empilhamento proposto, são iguais, mostrando-se assim que o processo de empilhamento pela composição de ondas planas produz uma seção com afastamento fonte-receptor nulo. Esta nova técnica de empilhamento basicamente consiste na aplicação de uma dupla decomposição do campo de ondas em onda planas por meio da aplicação de dois empilhamentos oblíquos (slant stack), isto é um ao longo do arranjo das fontes e outro ao longo do arranjo dos detectores; seguido pelo processo de composição das ondas planas por meio do empilhamento obliquo inverso. Portanto, com base nestas operações e com a ajuda de um exemplo de aplicação nos dados gerados a partir de um modelo simples, são descritos os fundamentos e o procedimento de aplicação (ou algoritmo) desta nova técnica de obtenção da seção de afastamento nulo. Como exemplo de aplicação do empilhamento PWC em dados correspondentes a um meio com variações laterais de velocidade, foi aplicado nos dados Marmousi gerados segundo a técnica de cobertura múltipla a partir de um modelo que representa uma situação geológica real. Por comparação da seção resultante com a similar produzida pelo método de empilhamento convencional, observa-se que a seção de afastamento nulo desta nova técnica apresenta melhor definição e continuidade dos reflectores, como também uma melhor caracterização da ocorrência de difrações. Por último, da atenuação de ruído aleatório realizada nos mesmos dados, observa-se que esta técnica de empilhamento também produz uma atenuação do ruído presente no sinal, a qual implica um aumento na relação sinal ruído.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A determinação de um acurado modelo de velocidades é um requisito fundamental para a realização do imageamento sísmico. Métodos novos como a Estereotomografia préempilhamento e a Tomografia da onda NIP são ferramentas poderosas e bastante sugestivas para este propósito. Basicamente, a Estereotomografia pré-empilhamento se baseia no conceito de eventos localmente coerentes interpretados como reflexões primárias e associados com pares de segmentos de raios, que tem um mesmo ponto de reflexão em profundidade. Na Tomografia da onda NIP um evento sísmico é representado por uma onda hipotética NIP, que está relacionada a um ponto de reflexão em profundidade. Os atributos da onda NIP são determinados no decorrer do Empilhamento de Superfície de Reflexão Comum (empilhamento CRS). Este trabalho tem como objetivo, fazer um estudo comparativo de ambos os métodos de determinação do modelo de velocidades em profundidade. Assim, é realizada uma revisão dos fundamentos teóricos de ambos os métodos tomográficos, destacando as principais diferenças e aplicando estas aproximações em um dado sintético e um dado real marinho (linha sísmica 214-2660 da Bacia do Jequitinhonha). Para avaliar os modelos de velocidades encontrados pelas aproximações, foi utilizada a migração pré-empilhamento em profundidade do tipo Kirchhoff e também as famílias de imagem comum (CIG). Os resultados mostraram que ambos os métodos tomográficos fornecem modelos de velocidades representativos. Contudo, constatou-se que a estereotomografia tem melhor desempenho em meios com variações laterais de velocidades, porém, aplicável somente em dados pré-empilhados com alta razão sinal/ruído.