998 resultados para Aquisição e processamento de sinal


Relevância:

80.00% 80.00%

Publicador:

Resumo:

OBJETIVO: Avaliar uma melhoria da acurácia diagnóstica da taquicardia ventricular monomórfica (TVM), através do eletrocardiograma de alta resolução (ECGAR), adicionando à análise no domínio do tempo (DT), técnicas estatísticas de correlação espectral no domínio da freqüência (DF). MÉTODOS: Foram estudados pelo ECGAR 137 indivíduos sendo 27 com cardiopatia e TVM sustentada, 30 com cardiopatia e sem TVM e 80 sem evidências de cardiopatia. Os parâmetros analisados no ECGAR no DT foram: duração do QRS filtrado, RMS40 e LAS40 e, no DF, as médias e os devios padrões da correlação espectral intersegmentar do sinal e da banda de freqüência delimitadora da concentração do sinal. RESULTADOS: A sensibilidade (Sb) e o valor preditivo positivo (VPP) do ECGAR no DT, DF e análise combinada de ambos os domínios foram, na detecção de TVM, respectivamente: Sb = 59,3%, 63% e 81,5% e VPP = 80,0%, 81,0% e 84,6%. CONCLUSÃO: A análise combinada do ECGAR nos DT e DF aumenta a acurácia diagnóstica de pacientes com apresentação clínica de TVM sustentada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

OBJETIVO: O estudo analisou a volumetria hepática por tomografia axial computadorizada, através de um programa informatizado semi-automático de aquisição e processamento de imagens digitalizadas, como parâmetro de acompanhamento da regeneração hepática em suínos, após hepatectomia parcial. MÉTODO: Doze suínos fêmeas, da raça Landrace, jovens, foram distribuídos em 3 grupos, conforme tempo de observação após o procedimento cirúrgico: 5(G5), 10(10) ou 15(G15) dias. Todos foram submetidos à hepatectomia parcial e, posteriormente, após acompanhamento, sacrificados, procedendo-se a retirada do fígado regenerado. A peça da hepatectomia e o fígado regenerado foram pesados e submetidos à realização da tomografia e aferição do volume através do software HEPATO®. Para análise estatística foram utilizados os testes não-paramétricos de Kruskal-Wallis e Wilcoxon. Valores de p<0,05 indicaram significância estatística. RESULTADOS: O peso do fígado regenerado foi de: G5=434,5g, G10=449,25g e G15=486,5 g), p=0,592. A regeneração hepática a partir do peso do fígado foi de 83,58% (G5), 94,95% (G10) e 101,63% (G15), p=0,197. O volume do fígado regenerado foi de 403,58 cm² (G5), 450,88 cm² (G10) e 458,93 cm² (G15), p=0,941. A regeneração hepática a partir do volume do fígado foi de 74,25% (G5), 88% (G10) e 100% (G15), p=0,326. Não houve diferença estatística significativa entre os parâmetros. CONCLUSÃO: A avaliação volumétrica por tomografia computadorizada, utilizando um programa informatizado semi-automático de aquisição e processamento de imagens digitalizadas, é método fidedigno para avaliação e acompanhamento da regeneração hepática em suínos, após hepatectomia parcial.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de um sistema de medição para a análise biomecânica da força desenvolvida durante a escovação dental, com aquisição e processamento de dados de dinamometria para a análise da escovação dental como um processo eficaz de higiene bucal. Foi desenvolvida uma célula de carga com extensômetros de resistência elétrica, montada em uma escova dental. A célula de carga foi construída com 2 Strain Gages montados em meia ponte de Wheatstone, medindo força em flexão, e 4 Strain Gages montados em ponte completa de Wheatstone medindo força de torque. A aquisição dos dados e análise foi feita através do software SAD2. Foram selecionados 6 indivíduos, dois do sexo masculino e 4 do sexo feminino, todos destros, e instruídos a escovarem os dentes por 1 minuto. Os valores medidos para a força de flexão média variam de 24gf à 526gf e para o esforço de torque médio de –76gfmm à 1890gfmm. A célula de carga desenvolvida mostrou-se repetitiva, com boa sensibilidade e confiável com um erro em flexão de 2,7% e 5,5% em torque. A célula de carga apresentou resultados semelhantes a de outros trabalhos publicados anteriormente, sendo estes válidos para uma análise quantitativa inicial no processo de escovação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Orientador: António Manuel Casimiro

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho descreve duas técnicas de deteção de gás baseadas em fibra ótica e apresenta dois sistemas sensores testados em ambiente laboratorial, usando técnicas de processamento de sinal usualmente associadas à espetroscopia de absorção. O estudo inicial do estado da arte dos sensores baseados em fibra ótica para a deteção de gases apresenta soluções com elevada seletividade, sensibilidade e resolução que permitem tempos de resposta curtos e esquemas de multiplexagem versáteis. A técnica de espetroscopia de absorção direta (DAS) permite a deteção de gases de forma simples e com alguma eficácia, mas com uma baixa relação-sinal-ruido. A espetroscopia por modulação de comprimento de onda (WMS) é uma técnica muito eficaz e de elevada sensibilidade para a deteção de gases, dado que a deteção é deslocada para frequências afastadas do ruído base, melhorando significativamente a relação-sinal-ruído. Estas técnicas foram escolhidas para a implementação de dois sistemas optoeletrónicos, totalmente controlados pelas respetivas aplicações em LabVIEW para a deteção e monitorização de amónia (NH3), dióxido de carbono (CO2) e metano (CH4). O trabalho é finalizado com a caraterização laboratorial dos sistemas e avaliação do desempenho, permitindo a otimização dos sistemas e técnicas implementados. De referir que o trabalho realizado nas instalações da Unidade de Optoeletrónica e Sistemas Eletrónicos (UOSE) do Instituto de Engenharia de Sistemas e Computadores (INESC), Tecnologia e Ciência (TEC), laboratório associado coordenado pelo INESC Porto, permitiu, excelentes condições de trabalho, essenciais para implementar de forma prática os diversos conceitos estudados, bem como testar e caraterizar todos os sistemas desenvolvidos em ambiente laboratorial. O trabalho desenvolvido enquadra-se no âmbito do projeto europeu ECOAL-MGT (Gestão ecológica de pilhas de resíduos de carvão), que será implementado para monitorização remota de parâmetros fundamentais de uma escombreira de carvão em auto-combustão em S.ºPedro da Cova, Portugal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The occurrence of transients in electrocardiogram (ECG) signals indicates an electrical phenomenon outside the heart. Thus, the identification of transients has been the most-used methodology in medical analysis since the invention of the electrocardiograph (device responsible for benchmarking of electrocardiogram signals). There are few papers related to this subject, which compels the creation of an architecture to do the pre-processing of this signal in order to identify transients. This paper proposes a method based on the signal energy of the Hilbert transform of electrocardiogram, being an alternative to methods based on morphology of the signal. This information will determine the creation of frames of the MP-HA protocol responsible for transmitting the ECG signals through an IEEE 802.3 network to a computing device. That, in turn, may perform a process to automatically sort the signal, or to present it to a doctor so that he can do the sorting manually

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Brain-Computer Interfaces (BCI) have as main purpose to establish a communication path with the central nervous system (CNS) independently from the standard pathway (nervous, muscles), aiming to control a device. The main objective of the current research is to develop an off-line BCI that separates the different EEG patterns resulting from strictly mental tasks performed by an experimental subject, comparing the effectiveness of different signal-preprocessing approaches. We also tested different classification approaches: all versus all, one versus one and a hierarchic classification approach. No preprocessing techniques were found able to improve the system performance. Furthermore, the hierarchic approach proved to be capable to produce results above the expected by literature

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modern wireless systems employ adaptive techniques to provide high throughput while observing desired coverage, Quality of Service (QoS) and capacity. An alternative to further enhance data rate is to apply cognitive radio concepts, where a system is able to exploit unused spectrum on existing licensed bands by sensing the spectrum and opportunistically access unused portions. Techniques like Automatic Modulation Classification (AMC) could help or be vital for such scenarios. Usually, AMC implementations rely on some form of signal pre-processing, which may introduce a high computational cost or make assumptions about the received signal which may not hold (e.g. Gaussianity of noise). This work proposes a new method to perform AMC which uses a similarity measure from the Information Theoretic Learning (ITL) framework, known as correntropy coefficient. It is capable of extracting similarity measurements over a pair of random processes using higher order statistics, yielding in better similarity estimations than by using e.g. correlation coefficient. Experiments carried out by means of computer simulation show that the technique proposed in this paper presents a high rate success in classification of digital modulation, even in the presence of additive white gaussian noise (AWGN)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The seismic method is of extreme importance in geophysics. Mainly associated with oil exploration, this line of research focuses most of all investment in this area. The acquisition, processing and interpretation of seismic data are the parts that instantiate a seismic study. Seismic processing in particular is focused on the imaging that represents the geological structures in subsurface. Seismic processing has evolved significantly in recent decades due to the demands of the oil industry, and also due to the technological advances of hardware that achieved higher storage and digital information processing capabilities, which enabled the development of more sophisticated processing algorithms such as the ones that use of parallel architectures. One of the most important steps in seismic processing is imaging. Migration of seismic data is one of the techniques used for imaging, with the goal of obtaining a seismic section image that represents the geological structures the most accurately and faithfully as possible. The result of migration is a 2D or 3D image which it is possible to identify faults and salt domes among other structures of interest, such as potential hydrocarbon reservoirs. However, a migration fulfilled with quality and accuracy may be a long time consuming process, due to the mathematical algorithm heuristics and the extensive amount of data inputs and outputs involved in this process, which may take days, weeks and even months of uninterrupted execution on the supercomputers, representing large computational and financial costs, that could derail the implementation of these methods. Aiming at performance improvement, this work conducted the core parallelization of a Reverse Time Migration (RTM) algorithm, using the parallel programming model Open Multi-Processing (OpenMP), due to the large computational effort required by this migration technique. Furthermore, analyzes such as speedup, efficiency were performed, and ultimately, the identification of the algorithmic scalability degree with respect to the technological advancement expected by future processors

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Desenvolvimento Humano e Tecnologias - IBRC

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)