999 resultados para processamento de sinal
Resumo:
Modern wireless systems employ adaptive techniques to provide high throughput while observing desired coverage, Quality of Service (QoS) and capacity. An alternative to further enhance data rate is to apply cognitive radio concepts, where a system is able to exploit unused spectrum on existing licensed bands by sensing the spectrum and opportunistically access unused portions. Techniques like Automatic Modulation Classification (AMC) could help or be vital for such scenarios. Usually, AMC implementations rely on some form of signal pre-processing, which may introduce a high computational cost or make assumptions about the received signal which may not hold (e.g. Gaussianity of noise). This work proposes a new method to perform AMC which uses a similarity measure from the Information Theoretic Learning (ITL) framework, known as correntropy coefficient. It is capable of extracting similarity measurements over a pair of random processes using higher order statistics, yielding in better similarity estimations than by using e.g. correlation coefficient. Experiments carried out by means of computer simulation show that the technique proposed in this paper presents a high rate success in classification of digital modulation, even in the presence of additive white gaussian noise (AWGN)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Desenvolvimento Humano e Tecnologias - IBRC
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
O presente trabalho trata da filtragem e reconstrução de sinais em frequência intermediária usando FPGA. É feito o desenvolvimento de algoritmos usando processamento digital de sinais e também a implementação dos mesmos, constando desde o projeto da placa de circuito impresso, montagem e teste. O texto apresenta um breve estudo de amostragem e reconstrução de sinais em geral. Especial atenção é dada à amostragem de sinais banda-passante e à análise de questões práticas de reconstrução de sinais em frequência intermediária. Dois sistemas de reconstrução de sinais baseados em processamento digital de sinais, mais especificamente reamostragem no domínio discreto, são apresentados e analisados. São também descritas teorias de processos de montagem e soldagem de placas eletrônicas com objetivo de definir uma metodologia de projeto, montagem e soldagem de placas eletrônicas. Tal metodologia é aplicada no projeto e manufatura do protótipo de um módulo de filtragem digital para repetidores de telefonia celular. O projeto, implementado usando FPGA, é baseado nos dois sistemas supracitados. Ao final do texto, resultados obtidos em experimentos de filtragem digital e reconstrução de sinais em frequência intermediária com o protótipo desenvolvido são apresentados.
Resumo:
Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.
Resumo:
As redes neurais artificiais têm provado serem uma poderosa técnica na resolução de uma grande variedade de problemas de otimização. Nesta dissertação é desenvolvida uma nova rede neural, tipo recorrente, sem realimentação (self-feedback loops) e sem neurônios ocultos, para o processamento do sinal sísmico, para fornecer a posição temporal, a polaridade e as amplitudes estimadas dos refletores sísmicos, representadas pelos seus coeficientes de reflexão. A principal característica dessa nova rede neural consiste no tipo de função de ativação utilizada, a qual permite três possíveis estados para o neurônio. Busca-se estimar a posição dos refletores sísmicos e reproduzir as verdadeiras polaridades desses refletores. A idéia básica desse novo tipo de rede, aqui denominada rede neural discreta (RND), é relacionar uma função objeto, que descreve o problema geofísico, com a função de Liapunov, que descreve a dinâmica da rede neural. Deste modo, a dinâmica da rede leva a uma minimização local da sua função de Liapunov e consequentemente leva a uma minimização da função objeto. Assim, com uma codificação conveniente do sinal de saída da rede tem-se uma solução do problema geofísico. A avaliação operacional da arquitetura desta rede neural artificial é realizada em dados sintéticos gerados através do modelo convolucional simples e da teoria do raio. A razão é para explicar o comportamento da rede com dados contaminados por ruído, e diante de pulsos fonte de fases mínima, máxima e misturada.
Resumo:
Apesar dos avanços tecnológicos empregados nas estratégias de processamento do sinal, um dos obstáculos ainda existentes são as lacunas de detalhes espectrais na informação elétrica transmitida. Considerando a sua importância na percepção da fala, pesquisadores investigaram mecanismos para otimizar o detalhamento espectral, por meio dos canais espectrais virtuais. A aplicação clínica desta técnica resultou em uma nova estratégia de processamento de sinal - a HiRes 120. OBJETIVO: Avaliar o desempenho auditivo de usuários de Implante Coclear com a HiRes 120. METODOLOGIA: Levantamento bibliográfico conduzido em base eletrônica de dados, com busca padronizada até o ano de 2011, utilizando-se palavras-chave específicas. Para a seleção e avaliação dos estudos científicos levantados na busca, foram estabelecidos critérios, contemplando os aspectos: tipo de estudo, participantes, intervenção adotada e avaliação dos resultados. CONCLUSÃO: As evidências científicas apontam uma melhora do desempenho auditivo nas situações de ruído com a estratégia HiRes 120, mas tal fato não ocorre nas situações de silêncio. A otimização da percepção da fala com o uso da estratégia está intimamente relacionada com a idade do usuário de implante coclear, com o tempo de privação sensorial e o tempo de aclimatização necessário para o aproveitamento das informações espectrais da estratégia.
Resumo:
O presente trabalho descreve duas técnicas de deteção de gás baseadas em fibra ótica e apresenta dois sistemas sensores testados em ambiente laboratorial, usando técnicas de processamento de sinal usualmente associadas à espetroscopia de absorção. O estudo inicial do estado da arte dos sensores baseados em fibra ótica para a deteção de gases apresenta soluções com elevada seletividade, sensibilidade e resolução que permitem tempos de resposta curtos e esquemas de multiplexagem versáteis. A técnica de espetroscopia de absorção direta (DAS) permite a deteção de gases de forma simples e com alguma eficácia, mas com uma baixa relação-sinal-ruido. A espetroscopia por modulação de comprimento de onda (WMS) é uma técnica muito eficaz e de elevada sensibilidade para a deteção de gases, dado que a deteção é deslocada para frequências afastadas do ruído base, melhorando significativamente a relação-sinal-ruído. Estas técnicas foram escolhidas para a implementação de dois sistemas optoeletrónicos, totalmente controlados pelas respetivas aplicações em LabVIEW para a deteção e monitorização de amónia (NH3), dióxido de carbono (CO2) e metano (CH4). O trabalho é finalizado com a caraterização laboratorial dos sistemas e avaliação do desempenho, permitindo a otimização dos sistemas e técnicas implementados. De referir que o trabalho realizado nas instalações da Unidade de Optoeletrónica e Sistemas Eletrónicos (UOSE) do Instituto de Engenharia de Sistemas e Computadores (INESC), Tecnologia e Ciência (TEC), laboratório associado coordenado pelo INESC Porto, permitiu, excelentes condições de trabalho, essenciais para implementar de forma prática os diversos conceitos estudados, bem como testar e caraterizar todos os sistemas desenvolvidos em ambiente laboratorial. O trabalho desenvolvido enquadra-se no âmbito do projeto europeu ECOAL-MGT (Gestão ecológica de pilhas de resíduos de carvão), que será implementado para monitorização remota de parâmetros fundamentais de uma escombreira de carvão em auto-combustão em S.ºPedro da Cova, Portugal.
Resumo:
In the oil prospection research seismic data are usually irregular and sparsely sampled along the spatial coordinates due to obstacles in placement of geophones. Fourier methods provide a way to make the regularization of seismic data which are efficient if the input data is sampled on a regular grid. However, when these methods are applied to a set of irregularly sampled data, the orthogonality among the Fourier components is broken and the energy of a Fourier component may "leak" to other components, a phenomenon called "spectral leakage". The objective of this research is to study the spectral representation of irregularly sampled data method. In particular, it will be presented the basic structure of representation of the NDFT (nonuniform discrete Fourier transform), study their properties and demonstrate its potential in the processing of the seismic signal. In this way we study the FFT (fast Fourier transform) and the NFFT (nonuniform fast Fourier transform) which rapidly calculate the DFT (discrete Fourier transform) and NDFT. We compare the recovery of the signal using the FFT, DFT and NFFT. We approach the interpolation of seismic trace using the ALFT (antileakage Fourier transform) to overcome the problem of spectral leakage caused by uneven sampling. Applications to synthetic and real data showed that ALFT method works well on complex geology seismic data and suffers little with irregular spatial sampling of the data and edge effects, in addition it is robust and stable with noisy data. However, it is not as efficient as the FFT and its reconstruction is not as good in the case of irregular filling with large holes in the acquisition.
Resumo:
In the oil prospection research seismic data are usually irregular and sparsely sampled along the spatial coordinates due to obstacles in placement of geophones. Fourier methods provide a way to make the regularization of seismic data which are efficient if the input data is sampled on a regular grid. However, when these methods are applied to a set of irregularly sampled data, the orthogonality among the Fourier components is broken and the energy of a Fourier component may "leak" to other components, a phenomenon called "spectral leakage". The objective of this research is to study the spectral representation of irregularly sampled data method. In particular, it will be presented the basic structure of representation of the NDFT (nonuniform discrete Fourier transform), study their properties and demonstrate its potential in the processing of the seismic signal. In this way we study the FFT (fast Fourier transform) and the NFFT (nonuniform fast Fourier transform) which rapidly calculate the DFT (discrete Fourier transform) and NDFT. We compare the recovery of the signal using the FFT, DFT and NFFT. We approach the interpolation of seismic trace using the ALFT (antileakage Fourier transform) to overcome the problem of spectral leakage caused by uneven sampling. Applications to synthetic and real data showed that ALFT method works well on complex geology seismic data and suffers little with irregular spatial sampling of the data and edge effects, in addition it is robust and stable with noisy data. However, it is not as efficient as the FFT and its reconstruction is not as good in the case of irregular filling with large holes in the acquisition.
Resumo:
Atualmente o uso da tecnologia como auxílio ao diagnóstico médico faz parte da rotina de atendimento diário na prestação de cuidados de saúde nos hospitais. O recurso à tecnologia na assistência à saúde tem aumentado, e até mesmo nos casos em que uma examinação clínica detalhada fornece informações confiáveis o suficiente para o diagnóstico correto, os exames de diagnóstico têm assumido um papel central na prática clínica, o que aumentou, por consequência, os custos em saúde. A ausculta cardíaca clássica é uma poderosa ferramenta clínica que, apesar de ter algumas limitações, pode ser reforçada com a aquisição, armazenamento e processamento do sinal fonocardiograma (FCG) e com a sua caraterização funcional pelo uso de sons cardíacos e caraterísticas de forma quantitativa. Neste trabalho é apresentada a caraterização de FCGs normais através do uso da Transformada de Hilbert-Huang, permitindo a identificação de caraterísticas quantitativas que possam ser usadas como marcadores na análise da disfunção cardíaca através do FCG. Essa caraterização vai estabelecer marcadores normais de função cardíaca, cuja comparação com sons patológicos, irá contribuir para estabelecer uma avaliação de baixo custo na medicina cardiovascular.
Resumo:
A capacidade de monitorizar continuamente a pressão sanguínea de um paciente é muito útil para o diagnóstico e tratamento da hipertensão arterial, insuficiência cardíaca e outros distúrbios cardiovasculares, assim como em situações de cuidados domiciliários. Os dispositivos mais comuns para monitorização contínua de pressão arterial são invasivos, exigentes a nível técnico, clínico e desconfortáveis para o paciente. Uma alternativa aos métodos já existentes é a estimação da Pressão Arterial (PA) através do cálculo do Tempo de Trânsito de Pulso (TTP). Ao longo dos últimos anos foram desenvolvidas várias abordagens para o cálculo do TTP, algumas delas utilizando apenas sinais de fotopletismografia (FPG) e outras recorrendo também a sinais de eletrocardiografia (ECG). Neste trabalho é abordada a utilização de várias metodologias para o cálculo do TTP.
Resumo:
Hoje, há um interesse crescente pela aprendizagem de uma segunda língua, quer seja por razões profissionais ou pessoais. Esta é uma tendência que se vai afirmando num mundo cada vez mais interconectado. Por outro lado, a democratização das tecnologias computacionais torna possível pensar em desenvolver novas técnicas de ensino de línguas mais automatizadas e personalizadas. Esta dissertação teve como objetivo estudar e implementar um conjunto de técnicas de processamento de sinal e de classificação de séries temporais úteis para o desenvolvimento de metodologias do ensino oral com feedback automático. São apresentados resultados preliminares sobre a prestação destas técnicas, e avaliada a viabilidade deste tipo de abordagem.
Resumo:
A medição precisa da força é necessária para muitas aplicações, nomeadamente, para a determinação da resistência mecânica dos materiais, controlo de qualidade durante a produção, pesagem e segurança de pessoas. Dada a grande necessidade de medição de forças, têm-se desenvolvido, ao longo do tempo, várias técnicas e instrumentos para esse fim. Entre os vários instrumentos utilizados, destacam-se os sensores de força, também designadas por células de carga, pela sua simplicidade, precisão e versatilidade. O exemplo mais comum é baseado em extensómetros elétricos do tipo resistivo, que aliados a uma estrutura formam uma célula de carga. Este tipo de sensores possui sensibilidades baixas e em repouso, presença de offset diferente de zero, o que torna complexo o seu condicionamento de sinal. Este trabalho apresenta uma solução para o condicionamento e aquisição de dados para células de carga que, tanto quanto foi investigado, é inovador. Este dispositivo permite efetuar o condicionamento de sinal, digitalização e comunicação numa estrutura atómica. A ideia vai de encontro ao paradigma dos sensores inteligentes onde um único dispositivo eletrónico, associado a uma célula de carga, executa um conjunto de operações de processamento de sinal e transmissão de dados. Em particular permite a criação de uma rede ad-hoc utilizando o protocolo de comunicação IIC. O sistema é destinado a ser introduzido numa plataforma de carga, desenvolvida na Escola Superior de Tecnologia e Gestão de Bragança, local destinado à sua implementação. Devido à sua estratégia de conceção para a leitura de forças em três eixos, contém quatro células de carga, com duas saídas cada, totalizando oito saídas. O hardware para condicionamento de sinal já existente é analógico, e necessita de uma placa de dimensões consideráveis por cada saída. Do ponto de vista funcional, apresenta vários problemas, nomeadamente o ajuste de ganho e offset ser feito manualmente, tornando-se essencial um circuito com melhor desempenho no que respeita a lidar com um array de sensores deste tipo.