13 resultados para Filtragem determinística

em Universidade Federal do Pará


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata da filtragem e reconstrução de sinais em frequência intermediária usando FPGA. É feito o desenvolvimento de algoritmos usando processamento digital de sinais e também a implementação dos mesmos, constando desde o projeto da placa de circuito impresso, montagem e teste. O texto apresenta um breve estudo de amostragem e reconstrução de sinais em geral. Especial atenção é dada à amostragem de sinais banda-passante e à análise de questões práticas de reconstrução de sinais em frequência intermediária. Dois sistemas de reconstrução de sinais baseados em processamento digital de sinais, mais especificamente reamostragem no domínio discreto, são apresentados e analisados. São também descritas teorias de processos de montagem e soldagem de placas eletrônicas com objetivo de definir uma metodologia de projeto, montagem e soldagem de placas eletrônicas. Tal metodologia é aplicada no projeto e manufatura do protótipo de um módulo de filtragem digital para repetidores de telefonia celular. O projeto, implementado usando FPGA, é baseado nos dois sistemas supracitados. Ao final do texto, resultados obtidos em experimentos de filtragem digital e reconstrução de sinais em frequência intermediária com o protótipo desenvolvido são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dois métodos de filtragem são combinados neste trabalho com a finalidade de ressaltar determinadas feições, em um mapa aeromagnético, tais como lineamentos e anomalias de grande porte, provindos do embasamento. A filtragem visual consiste na observação estereoscópica de pares de mapas, especialmente elaborados para este fim. A filtragem numérica consiste na eliminação dos componentes espectrais indesejáveis (ruído) e no realce dos componentes espectrais de interesse (sinal). Ambos os métodos foram aplicados a mapas aeromagnéticos da Bacia do Médio Amazonas. As operações de filtragem numérica foram todas efetuadas no domínio dos espaços, através de convolução dos dados com filtros de dimensões 13x13. A análise preliminar do espectro é enfatizada como guia na elaboração de filtros. Os resultados da aplicação de cada filtro são discutidos em detalhe. Além das filtragens visual e numérica, vários modelos de falhas e de anomalias do intraembasamento e do supraembasemento são apresentados. A análise de modelos constitui um método de interpretação independente e complementar dos métodos de filtragens. Uma interpretação estrutural do embasamento da Bacia do Médio Amazonas é incluída. As direções principais dos lineamentos aeromagnéticos são E-W, NW60°, N-S, NF45° e NE6O°. Dois grabens sao bem evidenciados um com direção N-S, o mais recente próximo à borda do Alto do Purus. O outro, mais antigo, situa-se a leste do primeiro e tem direção NE45°. Duas anomalias de grande e médio porte (15-60km) possuem magnetização remanente com altos valores de inclinação negativa, o que corrobora a posição muito mais ao sul da Bacia Amazônica, no Paleozóico. Na integração dos dados aeromagnéticos com outros dados geofísicos, como sísmica e gravimetria, e resultados de fotointerpretação geológica, a consistência das informações independentes, em relação à interpretação aeromagnética, concorre para aumentar a viabilidade e a confiabilidade das técnicas aplica das neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As distorções estáticas são um grave problema que afeta o método magnetotelúrico e muitas tentativas têm sido feitas para eliminar ou minimizar os seus efeitos. Este trabalho trata de uma técnica nova que trata deste problema, o método EMAP, que é uma adaptação do método magnetotelúrico na qual as medidas de campo elétrico são feitas em uma linha contínua de dipolos conectados entre si, e os dados coletados desta maneira são tratados com um filtro espacial passa-baixa dependente da frequência. Este trabalho é composto de duas partes principais, a simulação numérica dos dados contaminados com as distorções estáticas e a filtragem destes dados com o filtro espacial passa-baixa. Na primeira parte, aplicamos o método dos elementos finitos para simular a resposta dos dipolos elétricos, os quais fazem as medidas do campo elétrico. Na segunda parte aplicamos a janela de Hanning como filtro passa-baixa apropriado para tratar os dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se nesta dissertação a proposta de um algoritmo supervisionado de classificação de imagens de sensoreamento remoto, composto de três etapas: remoção ou suavização de nuvens, segmentação e classificação.O método de remoção de nuvens usa filtragem homomórfica para tratar as obstruções causadas pela presença de nuvens suaves e o método Inpainting para remover ou suavizar a preseça de sombras e nuvens densas. Para as etapas de segmentação e classificação é proposto um método baseado na energia AC dos coeficientes da Transformada Cosseno Discreta (DCT). O modo de classificação adotado é do tipo supervisionado. Para avaliar o algioritmo foi usado um banco de 14 imagens captadas por vários sensores, das quais 12 possuem algum tipo de obstrução. Para avaliar a etapa de remoção ou suavização de nuvens e sombras são usados a razão sinal-ruído de pico (PSNR) e o coeficiente Kappa. Nessa fase, vários filtros passa-altas foram comparados para a escolha do mais eficiente. A segmentação das imagens é avaliada pelo método da coincidência entre bordas (EBC) e a classificação é avaliada pela medida da entropia relativa e do erro médio quadrático (MSE). Tão importante quanto as métricas, as imagens resultantes são apresentadas de forma a permitir a avaliação subjetiva por comparação visual. Os resultados mostram a eficiência do algoritmo proposto, principalmente quando comparado ao software Spring, distribuído pelo Instituto Nacional de Pesquisas Espaciais (INPE).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vários órgãos do corpo humano manifestam suas funções por meio de atividades elétricas. A medição desses e de outros biopotenciais pode fornecer indícios importantes que permitem o estudo do funcionamento real dos órgãos. Tais medições não constituem tarefa simples porque envolvem aquisição de dados de sinais cujas amplitudes podem ser na faixa entre 1 μV e 10 mV e também porque, no ambiente em que são feitos esses registros, estão presentes diversos tipos de sinais interferentes que causam degradação da relação sinal/ruído. Logo, o projeto do condicionador de biopotencial deve ser cercado de cuidados para que o circuito final reúna as melhores características de desempenho. Neste trabalho apresenta-se um estudo da origem dos biopotenciais, suas características, os circuitos utilizados para ganho e filtragem do sinal, além das interferências presentes nos sistemas de medições e alguns circuitos para redução desses sinais. É desenvolvido então, um condicionador para registro de biopotenciais corticais com blocos de filtragem e ganho do sinal em até 40 000. Os testes com o condicionador foram realizados registrando o potencial cortical provocado visual e o eletroencefalograma, e nos resultados experimentais é possível observar um desempenho satisfatório do equipamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Variações sazonal e nictemeral do microfitoplâncton foram estudadas em uma estação fixa (00º46'37,2''S-046º43'24,5''W), localizada em uma área costeira próxima à ilha Canela (Norte do Brasil), durante os meses de setembro e dezembro/2004 (período seco) e março e junho/2005 (período chuvoso). As amostras destinadas à análise qualitativa do fitoplâncton foram obtidas a partir da filtragem de 400 L de água, através de uma rede planctônica (65 μm de abertura de malha), durante marés de sizígia, em intervalos regulares de três horas, por um período de 24 horas. O material coletado foi fixado com formol neutro a 4%. Paralelamente a essas coletas foi medida a salinidade da superfície da água. A salinidade apresentou variação significativa ao longo do período de estudo, variando entre 26,1 (junho/2005) e 39,0 (dezembro/2004), caracterizando o ambiente como eualino-polialino. Foram identificados 130 táxons incluídos nas divisões Cyanophyta (dois táxons), Bacillariophyta (115 táxons) e Dinophyta (13 táxons). As diatomáceas dominaram o microfitoplâncton da área, sendo Asterionellopsis glacialis, Dimeregramma minor, Skeletonema sp. e Thalassiosira subtilis os táxons mais freqüentes e abundantes. Os altos valores de salinidade condicionaram a maior representatividade das espécies marinhas neríticas, polialóbias. Os processos de ressuspensão provocados pelos ventos e arrebentação das ondas promoveram intercâmbios entre as populações planctônicas e ticoplanctônicas, dentre as quais as espécies Dimeregramma minor, Triceratium biquadratum e T. pentacrinus representaram novas ocorrências para as águas costeiras do litoral amazônico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma técnica para a inversão de dados magnetotelúricos é apresentada neste trabalho. Dois tipos de dados são tratados aqui, dados gerados por modelos unidimensionais com anisotropia na condutividade das camadas e dados bi-dimensionais de levantamentos do método EMAP (ElectroMagnetic Array Profiling). Em ambos os casos fazemos a inversão usando vínculos aproximados de igualdade para estabilizar as soluções. Mostramos as vantagens e as limitações do uso destes vínculos nos processos de inversão. Mesmo vinculada a inversão ainda pode se tornar instável. Para inverter os dados 2-D do EMAP, apresentamos um processo que consiste de três partes: 1 – A construção de um modelo interpretativo e da aproximação inicial para a inversão a partir dos dados de seções de resistividade aparente filtradas pelo processo de filtragem do EMAP; 2 – a inclusão de uma camada de corpos pequenos aflorantes, chamada de camada destatic shift, aos modelos interpretativos para resolver as fontes de distorções estáticas que contaminam os dados; 3 – o uso dos vínculos aproximados de igualdade absoluta para estabilizar as soluções. Os dois primeiros passos nos permitem extrair o máximo de informação possível dos dados, enquanto que o uso dos vínculos de igualdade nos permite incluir informação a priori que possua significado físico e geológico. Com estes passos, obtemos uma solução estável e significativa. Estudaremos o método em dados sintéticos de modelos bi-dimensionais e em dados reais de uma linha de EMAP feita na Bacia do Paraná.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O filtro de Kalman é aplicado para filtragem inversa ou problema de deconvolução. Nesta dissertação aplicamos o método de Kalman, considerado como uma outra visão de processamento no domínio do tempo, para separar sinal-ruído em perfil sônico admitido como uma realização de um processo estocástico não estacionário. Em um trabalho futuro estudaremos o problema da deconvolução. A dedução do filtro de Kalman destaca a relação entre o filtro de Kalman e o de Wiener. Estas deduções são baseadas na representação do sistema por variáveis de estado e modelos de processos aleatórios, com a entrada do sistema linear acrescentado com ruído branco. Os resultados ilustrados indicam a aplicabilidade dessa técnica para uma variedade de problemas de processamento de dados geofísicos, por exemplo, ideal para well log. O filtro de Kalman oferece aos geofísicos de exploração informações adicionais para o processamento, problemas de modelamento e a sua solução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inserido no convênio de cooperação firmado entre a Fundação Nacional de Saúde e a Universidade Federal do Pará, através do Departamento de Geofísica e do Curso de Pós-Graduação em Geofísica, este trabalho tem como objetivo o mapeamento geológico com a aplicação dos métodos eletromagnéticos VLF e HLEM, visando o estudo hidrogeológico do Município de São Domingos do Araguaia no Sudeste do Estado do Pará. Também, estudamos o desempenho quantitativo do método VLF, no que diz respeito a prospecção de água subterrânea. Primeiramente, analisamos a resposta VLF, através dos parâmetros da elipse de polarização (inclinação e elipsidade), de diferentes situações geológicas possíveis de serem encontradas no local de estudo e voltadas a hidrogeologia. Também, avaliamos a influência que os parâmetro físicos do modelo exercem na anomalia, utilizando para estas finalidades modelagem numérica por elemento finito. A análise quantitativa foi realizada através de ajuste, por tentativa e erro, com curvas teóricas obtidas da simulação de modelos idealizados na interpretação qualitativa, a qual fizemos com o auxilio da técnica de filtragem de Fraser e com perfís do método HLEM. Os resultados mostraram a existência de feições estruturais de "trends" N-S e NE-SW, que correlacionadas à geologia regional são falhas normais e de transferências, respectivamente. Com base nesses resultados, foram selecionados alguns locais com maiores probabilidades de sucesso na captação de água subterrânea através de poços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, a decomposição em valores singulares (DVS) de uma matriz A, n x m, que representa a anomalia magnética, é vista como um método de filtragem bidimensional de coerência que separa informações correlacionáveis e não correlacionáveis contidas na matriz de dados magnéticos A. O filtro DVS é definido através da expansão da matriz A em autoimagens e valores singulares. Cada autoimagem é dada pelo produto escalar dos vetores de base, autovetores, associados aos problemas de autovalor e autovetor das matrizes de covariância ATA e AAT. Este método de filtragem se baseia no fato de que as autoimagens associadas a grandes valores singulares concentram a maior parte da informação correlacionável presente nos dados, enquanto que a parte não correlacionada, presumidamente constituída de ruídos causados por fontes magnéticas externas, ruídos introduzidos pelo processo de medida, estão concentrados nas autoimagens restantes. Utilizamos este método em diferentes exemplos de dados magnéticos sintéticos. Posteriormente, o método foi aplicado a dados do aerolevantamento feito pela PETROBRÁS no Projeto Carauari-Norte (Bacia do Solimões), para analisarmos a potencialidade deste na identificação, eliminação ou atenuação de ruídos e como um possível método de realçar feições particulares da anomalia geradas por fontes profundas e rasas. Este trabalho apresenta também a possibilidade de introduzir um deslocamento estático ou dinâmico nos perfis magnéticos, com a finalidade de aumentar a correlação (coerência) entre eles, permitindo assim concentrar o máximo possível do sinal correlacionável nas poucas primeiras autoimagens. Outro aspecto muito importante desta expansão da matriz de dados em autoimagens e valores singulares foi o de mostrar, sob o ponto de vista computacional, que a armazenagem dos dados contidos na matriz, que exige uma quantidade n x m de endereços de memória, pode ser diminuída consideravelmente utilizando p autoimagens. Assim o número de endereços de memória cai para p x (n + m + 1), sem alterar a anomalia, na reprodução praticamente perfeita. Dessa forma, concluímos que uma escolha apropriada do número e dos índices das autoimagens usadas na decomposição mostra potencialidade do método no processamento de dados magnéticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do trabalho consiste em desenvolver uma metodologia para determinar os parâmetros de um corpo causador de uma anomalia magnética. Essa metodologia baseia-se na utilização de expressões analíticas, deduzidas para as integrais finitas dos momentos da anomalia de intensidade total e das componentes Hx, Hy e Hz ao longo dos três eixos de um sistema de coordenadas cartesianas. Por meio do ajuste entre essas expressões analíticas e as integrais numéricas finitas dos momentos das componentes magnéticas obtidas a partir de um levantamento geofísico, pode-se computar, através de um processo iterativo, os parâmetros de magnetização, posição, profundidade e dimensões de um corpo anômalo. No caso em que são conhecidas as medidas de somente uma componente magnética, ainda é possível aplicar o método pois as demais componentes podem ser obtidas por um esquema de filtragem matemática. A metodologia foi testada com sucesso para modelos dipolo pontual e linha de dipolos os quais são muito utilizados em Geofísica para interpretar anomalias magnéticas produzidas por corpos geológicos que possuem uma ou duas dimensões horizontais muito menores do que a profundidade.