998 resultados para Aquisição e processamento de sinal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work aimed to apply geoprocessing techniques to identify and to quantify the types of vegetal coverings in part of the county Botucatu – SP, having been divided into three phases: acquisition of data; georeferencing based on the digital topographic maps in 1:50000 scale and finally the thematic maps were generated. The methodology used to the analogical aerial photographics georeferencing showed efficient, considering that it was based on scientific procedures of residues

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work aimed to apply geoprocessing techniques to identify and to quantify the types of vegetal coverings in part of the county Botucatu – SP, having been divided into three phases: acquisition of data; georeferencing based on the digital topographic maps in 1:50000 scale and finally the thematic maps were generated. The methodology used to the analogical aerial photographics georeferencing showed efficient, considering that it was based on scientific procedures of residues analysis and the positioning central was classified as A, according to the Cartographic Precision Pattern.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A aquisição experimental de sinais neuronais é um dos principais avanços da neurociência. Por meio de observações da corrente e do potencial elétricos em uma região cerebral, é possível entender os processos fisiológicos envolvidos na geração do potencial de ação, e produzir modelos matemáticos capazes de simular o comportamento de uma célula neuronal. Uma prática comum nesse tipo de experimento é obter leituras a partir de um arranjo de eletrodos posicionado em um meio compartilhado por diversos neurônios, o que resulta em uma mistura de sinais neuronais em uma mesma série temporal. Este trabalho propõe um modelo linear de tempo discreto para o sinal produzido durante o disparo do neurônio. Os coeficientes desse modelo são calculados utilizando-se amostras reais dos sinais neuronais obtidas in vivo. O processo de modelagem concebido emprega técnicas de identificação de sistemas e processamento de sinais, e é dissociado de considerações sobre o funcionamento biofísico da célula, fornecendo uma alternativa de baixa complexidade para a modelagem do disparo neuronal. Além disso, a representação por meio de sistemas lineares permite idealizar um sistema inverso, cuja função é recuperar o sinal original de cada neurônio ativo em uma mistura extracelular. Nesse contexto, são discutidas algumas soluções baseadas em filtros adaptativos para a simulação do sistema inverso, introduzindo uma nova abordagem para o problema de separação de spikes neuronais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese de mestrado integrado em Engenharia Biomédica e Biofísica, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é prover um aplicativo de celular e um protocolo para aquisição de imagens para contagem dos ovos de Aedes aegypti com as seguintes características: facilidade de uso, alta acurácia e custo baixo. O mosquito Ae. aegypti, popularmente conhecido como mosquito da dengue, é um importante vetor de arboviroses como a própria dengue, a chikungunya, a zika e a febre amarela em seu ciclo urbano. O monitoramento entomológico é uma maneira de melhorar a capacidade de predição e na detecção precoce de epidemias das doenças mencionadas. Este monitoramento é majoritariamente baseado no índice larvário, o qual lista a quantidade de casas infectadas, ou a quantidade de ovos de Aedes coletados em palhetas em ovitrampas. Estas palhetas são normalmente de eucatex, mas existem pesquisas atuais testando o algodão.A contagem dos ovos coletados em ovitrampas é feita manualmente, a qual demanda tempo, profissionais qualificados para o manuseio de equipamento laboratorial (lupas e microscópios) e conhecimento entomológico. Buscou-se criar um método para acelerar o trabalho feito pelos profissionais em controle entomológico. A metodologia contou com a criação de um aplicativo e com um processo de contagem dos ovos, o qual consiste em quatro passos: a) Fotografar as palhetas em ovitrampas utilizando de uma câmera de celular; b) Transformar as fotos em uma imagem binarizada, removendo todos os elementos que não são ovos; c) Contar a área de cada elemento; d) A partir do uso de um classificador especialmente desenvolvido, estimar a quantidade de ovos baseado na área de cada elemento. Nos resultados, foi possível notar que houve uma disparidade na contagem de ovos em palhetas de algodão, a qual teve um erro médio próximo a zero, em relação às palhetas de eucatex, as quais tiveram erro médio acima de 5\%. Dos pontos mais importantes das conclusões, destacam-se a possibilidade de melhoria contínua do aplicativo por permanecer na nuvem, com possibilidade de avanços conforme novas descobertas, assim como o excelente custo-benefício obtido, por conseguir operar com baixo custo monetário.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A redução de dimensionalidade é uma tarefa crucial no processamento e análise de dados hiperespectrais. Esta comunicação propõe um método de estimação do subespaço de sinal baseado no erro quadrático médio. O método consiste em primeiro estimar as matrizes de correlação do sinal e do ruído e em segundo seleccionar o conjunto de vectores próprios que melhor representa o subespaço de sinal. O eficiência deste método é ilustrada em imagens hiperespectrais sintéticas e reais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work presents a low cost architecture for development of synchronized phasor measurement units (PMU). The device is intended to be connected in the low voltage grid, which allows the monitoring of transmission and distribution networks. Developments of this project include a complete PMU, with instrumentation module for use in low voltage network, GPS module to provide the sync signal and time stamp for the measures, processing unit with the acquisition system, phasor estimation and formatting data according to the standard and finally, communication module for data transmission. For the development and evaluation of the performance of this PMU, it was developed a set of applications in LabVIEW environment with specific features that let analyze the behavior of the measures and identify the sources of error of the PMU, as well as to apply all the tests proposed by the standard. The first application, useful for the development of instrumentation, consists of a function generator integrated with an oscilloscope, which allows the generation and acquisition of signals synchronously, in addition to the handling of samples. The second and main, is the test platform, with capabality of generating all tests provided by the synchronized phasor measurement standard IEEE C37.118.1, allowing store data or make the analysis of the measurements in real time. Finally, a third application was developed to evaluate the results of the tests and generate calibration curves to adjust the PMU. The results include all the tests proposed by synchrophasors standard and an additional test that evaluates the impact of noise. Moreover, through two prototypes connected to the electrical installation of consumers in same distribution circuit, it was obtained monitoring records that allowed the identification of loads in consumer and power quality analysis, beyond the event detection at the distribution and transmission levels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The presence of non-linear loads at a point in the distribution system may deform voltage waveform due to the consumption of non-sinusoidal currents. The use of active power filters allows significant reduction of the harmonic content in the supply current. However, the processing of digital control structures for these filters may require high performance hardware, particularly for reference currents calculation. This work describes the development of hardware structures with high processing capability for application in active power filters. In this sense, it considers an architecture that allows parallel processing using programmable logic devices. The developed structure uses a hybrid model using a DSP and an FPGA. The DSP is used for the acquisition of current and voltage signals, calculation of fundamental current related controllers and PWM generation. The FPGA is used for intensive signal processing, such as the harmonic compensators. In this way, from the experimental analysis, significant reductions of the processing time are achieved when compared to traditional approaches using only DSP. The experimental results validate the designed structure and these results are compared with other ones from architectures reported in the literature.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Spasticity is a common disorder in people who have upper motor neuron injury. The involvement may occur at different levels. The Modified Ashworth Scale (MAS) is the most used method to measure involvement levels. But it corresponds to a subjective evaluation. Mechanomyography (MMG) is an objective technique that quantifies the muscle vibration during the contraction and stretching events. So, it may assess the level of spasticity accurately. This study aimed to investigate the correlation between spasticity levels determined by MAS with MMG signal in spastic and not spastic muscles. In the experimental protocol, we evaluated 34 members of 22 volunteers, of both genders, with a mean age of 39.91 ± 13.77 years. We evaluated the levels of spasticity by MAS in flexor and extensor muscle groups of the knee and/or elbow, where one muscle group was the agonist and one antagonist. Simultaneously the assessment by the MAS, caught up the MMG signals. We used a custom MMG equipment to register and record the signals, configured in LabView platform. Using the MatLab computer program, it was processed the MMG signals in the time domain (median energy) and spectral domain (median frequency) for the three motion axes: X (transversal), Y (longitudinal) and Z (perpendicular). For bandwidth delimitation, we used a 3rd order Butterworth filter, acting in the range of 5-50 Hz. Statistical tests as Spearman's correlation coefficient, Kruskal-Wallis test and linear correlation test were applied. As results in the time domain, the Kruskal-Wallis test showed differences in median energy (MMGME) between MAS groups. The linear correlation test showed high linear correlation between MAS and MMGME for the agonist muscle as well as for the antagonist group. The largest linear correlation occurred between the MAS and MMG ME for the Z axis of the agonist muscle group (R2 = 0.9557) and the lowest correlation occurred in the X axis, for the antagonist muscle group (R2 = 0.8862). The Spearman correlation test also confirmed high correlation for all axes in the time domain analysis. In the spectral domain, the analysis showed an increase in the median frequency (MMGMF) in MAS’ greater levels. The highest correlation coefficient between MAS and MMGMF signal occurred in the Z axis for the agonist muscle group (R2 = 0.4883), and the lowest value occurred on the Y axis for the antagonist group (R2 = 0.1657). By means of the Spearman correlation test, the highest correlation occurred between the Y axis of the agonist group (0.6951; p <0.001) and the lowest value on the X axis of the antagonist group (0.3592; p <0.001). We conclude that there was a significantly high correlation between the MMGME and MAS in both muscle groups. Also between MMG and MAS occurred a significant correlation, however moderate for the agonist group, and low for the antagonist group. So, the MMGME proved to be more an appropriate descriptor to correlate with the degree of spasticity defined by the MAS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: A cintigrafia óssea é um dos exames mais frequentes em Medicina Nuclear. Esta modalidade de imagem médica requere um balanço apropriado entre a qualidade de imagem e a dose de radiação, ou seja, as imagens obtidas devem conter o número mínimo de contagem necessárias, para que apresentem qualidade considerada suficiente para fins diagnósticos. Objetivo: Este estudo tem como principal objetivo, a aplicação do software Enhanced Planar Processing (EPP), nos exames de cintigrafia óssea em doentes com carcinoma da mama e próstata que apresentam metástases ósseas. Desta forma, pretende-se avaliar a performance do algoritmo EPP na prática clínica em termos de qualidade e confiança diagnóstica quando o tempo de aquisição é reduzido em 50%. Material e Métodos: Esta investigação teve lugar no departamento de Radiologia e Medicina Nuclear do Radboud University Nijmegen Medical Centre. Cinquenta e um doentes com suspeita de metástases ósseas foram administrados com 500MBq de metilenodifosfonato marcado com tecnécio-99m. Cada doente foi submetido a duas aquisições de imagem, sendo que na primeira foi seguido o protocolo standard do departamento (scan speed=8 cm/min) e na segunda, o tempo de aquisição foi reduzido para metade (scan speed=16 cm/min). As imagens adquiridas com o segundo protocolo foram processadas com o algoritmo EPP. Todas as imagens foram submetidas a uma avaliação objetiva e subjetiva. Relativamente à análise subjetiva, três médicos especialistas em Medicina Nuclear avaliaram as imagens em termos da detetabilidade das lesões, qualidade de imagem, aceitabilidade diagnóstica, localização das lesões e confiança diagnóstica. No que respeita à avaliação objetiva, foram selecionadas duas regiões de interesse, uma localizada no terço médio do fémur e outra localizada nos tecidos moles adjacentes, de modo a obter os valores de relação sinal-ruído, relação contraste-ruído e coeficiente de variação. Resultados: Os resultados obtidos evidenciam que as imagens processadas com o software EPP oferecem aos médicos suficiente informação diagnóstica na deteção de metástases, uma vez que não foram encontradas diferenças estatisticamente significativas (p>0.05). Para além disso, a concordância entre os observadores, comparando essas imagens e as imagens adquiridas com o protocolo standard foi de 95% (k=0.88). Por outro lado, no que respeita à qualidade de imagem, foram encontradas diferenças estatisticamente significativas quando se compararam as modalidades de imagem entre si (p≤0.05). Relativamente à aceitabilidade diagnóstica, não foram encontradas diferenças estatisticamente significativas entre as imagens adquiridas com o protocolo standard e as imagens processadas com o EPP software (p>0.05), verificando-se uma concordância entre os observadores de 70.6%. Todavia, foram encontradas diferenças estatisticamente significativas entre as imagens adquiridas com o protocolo standard e as imagens adquiridas com o segundo protocolo e não processadas com o software EPP (p≤0.05). Para além disso, não foram encontradas diferenças estatisticamente significativas (p>0.05) em termos de relação sinal-ruído, relação contraste-ruído e coeficiente de variação entre as imagens adquiridas com o protocolo standard e as imagens processadas com o EPP. Conclusão: Com os resultados obtidos através deste estudo, é possível concluir que o algoritmo EPP, desenvolvido pela Siemens, oferece a possibilidade de reduzir o tempo de aquisição em 50%, mantendo ao mesmo tempo uma qualidade de imagem considerada suficiente para fins de diagnóstico. A utilização desta tecnologia, para além de aumentar a satisfação por parte dos doentes, é bastante vantajosa no que respeita ao workflow do departamento.