931 resultados para Transformada wavelet discreta


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: To investigate whether spirography-based objective measures are able to effectively characterize the severity of unwanted symptom states (Off and dyskinesia) and discriminate them from motor state of healthy elderly subjects. Background: Sixty-five patients with advanced Parkinson’s disease (PD) and 10 healthy elderly (HE) subjects performed repeated assessments of spirography, using a touch screen telemetry device in their home environments. On inclusion, the patients were either treated with levodopa-carbidopa intestinal gel or were candidates for switching to this treatment. On each test occasion, the subjects were asked trace a pre-drawn Archimedes spiral shown on the screen, using an ergonomic pen stylus. The test was repeated three times and was performed using dominant hand. A clinician used a web interface which animated the spiral drawings, allowing him to observe different kinematic features, like accelerations and spatial changes, during the drawing process and to rate different motor impairments. Initially, the motor impairments of drawing speed, irregularity and hesitation were rated on a 0 (normal) to 4 (extremely severe) scales followed by marking the momentary motor state of the patient into 2 categories that is Off and Dyskinesia. A sample of spirals drawn by HE subjects was randomly selected and used in subsequent analysis. Methods: The raw spiral data, consisting of stylus position and timestamp, were processed using time series analysis techniques like discrete wavelet transform, approximate entropy and dynamic time warping in order to extract 13 quantitative measures for representing meaningful motor impairment information. A principal component analysis (PCA) was used to reduce the dimensions of the quantitative measures into 4 principal components (PC). In order to classify the motor states into 3 categories that is Off, HE and dyskinesia, a logistic regression model was used as a classifier to map the 4 PCs to the corresponding clinically assigned motor state categories. A stratified 10-fold cross-validation (also known as rotation estimation) was applied to assess the generalization ability of the logistic regression classifier to future independent data sets. To investigate mean differences of the 4 PCs across the three categories, a one-way ANOVA test followed by Tukey multiple comparisons was used. Results: The agreements between computed and clinician ratings were very good with a weighted area under the receiver operating characteristic curve (AUC) coefficient of 0.91. The mean PC scores were different across the three motor state categories, only at different levels. The first 2 PCs were good at discriminating between the motor states whereas the PC3 was good at discriminating between HE subjects and PD patients. The mean scores of PC4 showed a trend across the three states but without significant differences. The Spearman’s rank correlations between the first 2 PCs and clinically assessed motor impairments were as follows: drawing speed (PC1, 0.34; PC2, 0.83), irregularity (PC1, 0.17; PC2, 0.17), and hesitation (PC1, 0.27; PC2, 0.77). Conclusions: These findings suggest that spirography-based objective measures are valid measures of spatial- and time-dependent deficits and can be used to distinguish drug-related motor dysfunctions between Off and dyskinesia in PD. These measures can be potentially useful during clinical evaluation of individualized drug-related complications such as over- and under-medications thus maximizing the amount of time the patients spend in the On state.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: Voice processing in real-time is challenging. A drawback of previous work for Hypokinetic Dysarthria (HKD) recognition is the requirement of controlled settings in a laboratory environment. A personal digital assistant (PDA) has been developed for home assessment of PD patients. The PDA offers sound processing capabilities, which allow for developing a module for recognition and quantification HKD. Objective: To compose an algorithm for assessment of PD speech severity in the home environment based on a review synthesis. Methods: A two-tier review methodology is utilized. The first tier focuses on real-time problems in speech detection. In the second tier, acoustics features that are robust to medication changes in Levodopa-responsive patients are investigated for HKD recognition. Keywords such as Hypokinetic Dysarthria , and Speech recognition in real time were used in the search engines. IEEE explorer produced the most useful search hits as compared to Google Scholar, ELIN, EBRARY, PubMed and LIBRIS. Results: Vowel and consonant formants are the most relevant acoustic parameters to reflect PD medication changes. Since relevant speech segments (consonants and vowels) contains minority of speech energy, intelligibility can be improved by amplifying the voice signal using amplitude compression. Pause detection and peak to average power rate calculations for voice segmentation produce rich voice features in real time. Enhancements in voice segmentation can be done by inducing Zero-Crossing rate (ZCR). Consonants have high ZCR whereas vowels have low ZCR. Wavelet transform is found promising for voice analysis since it quantizes non-stationary voice signals over time-series using scale and translation parameters. In this way voice intelligibility in the waveforms can be analyzed in each time frame. Conclusions: This review evaluated HKD recognition algorithms to develop a tool for PD speech home-assessment using modern mobile technology. An algorithm that tackles realtime constraints in HKD recognition based on the review synthesis is proposed. We suggest that speech features may be further processed using wavelet transforms and used with a neural network for detection and quantification of speech anomalies related to PD. Based on this model, patients' speech can be automatically categorized according to UPDRS speech ratings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVES: To develop a method for objective assessment of fine motor timing variability in Parkinson’s disease (PD) patients, using digital spiral data gathered by a touch screen device. BACKGROUND: A retrospective analysis was conducted on data from 105 subjects including65 patients with advanced PD (group A), 15 intermediate patients experiencing motor fluctuations (group I), 15 early stage patients (group S), and 10 healthy elderly subjects (HE) were examined. The subjects were asked to perform repeated upper limb motor tasks by tracing a pre-drawn Archimedes spiral as shown on the screen of the device. The spiral tracing test was performed using an ergonomic pen stylus, using dominant hand. The test was repeated three times per test occasion and the subjects were instructed to complete it within 10 seconds. Digital spiral data including stylus position (x-ycoordinates) and timestamps (milliseconds) were collected and used in subsequent analysis. The total number of observations with the test battery were as follows: Swedish group (n=10079), Italian I group (n=822), Italian S group (n = 811), and HE (n=299). METHODS: The raw spiral data were processed with three data processing methods. To quantify motor timing variability during spiral drawing tasks Approximate Entropy (APEN) method was applied on digitized spiral data. APEN is designed to capture the amount of irregularity or complexity in time series. APEN requires determination of two parameters, namely, the window size and similarity measure. In our work and after experimentation, window size was set to 4 and similarity measure to 0.2 (20% of the standard deviation of the time series). The final score obtained by APEN was normalized by total drawing completion time and used in subsequent analysis. The score generated by this method is hence on denoted APEN. In addition, two more methods were applied on digital spiral data and their scores were used in subsequent analysis. The first method was based on Digital Wavelet Transform and Principal Component Analysis and generated a score representing spiral drawing impairment. The score generated by this method is hence on denoted WAV. The second method was based on standard deviation of frequency filtered drawing velocity. The score generated by this method is hence on denoted SDDV. Linear mixed-effects (LME) models were used to evaluate mean differences of the spiral scores of the three methods across the four subject groups. Test-retest reliability of the three scores was assessed after taking mean of the three possible correlations (Spearman’s rank coefficients) between the three test trials. Internal consistency of the methods was assessed by calculating correlations between their scores. RESULTS: When comparing mean spiral scores between the four subject groups, the APEN scores were different between HE subjects and three patient groups (P=0.626 for S group with 9.9% mean value difference, P=0.089 for I group with 30.2%, and P=0.0019 for A group with 44.1%). However, there were no significant differences in mean scores of the other two methods, except for the WAV between the HE and A groups (P<0.001). WAV and SDDV were highly and significantly correlated to each other with a coefficient of 0.69. However, APEN was not correlated to neither WAV nor SDDV with coefficients of 0.11 and 0.12, respectively. Test-retest reliability coefficients of the three scores were as follows: APEN (0.9), WAV(0.83) and SD-DV (0.55). CONCLUSIONS: The results show that the digital spiral analysis-based objective APEN measure is able to significantly differentiate the healthy subjects from patients at advanced level. In contrast to the other two methods (WAV and SDDV) that are designed to quantify dyskinesias (over-medications), this method can be useful for characterizing Off symptoms in PD. The APEN was not correlated to none of the other two methods indicating that it measures a different construct of upper limb motor function in PD patients than WAV and SDDV. The APEN also had a better test-retest reliability indicating that it is more stable and consistent over time than WAV and SDDV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese apresentada ao Programa de Pós-graduação em Administração da Universidade Municipal de São Caetano do Sul

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese apresentada ao Programa de Pós-graduação em Administração - Doutorado, da Universidade Municipal de São Caetano do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a proposta de uma arquitetura especial para simulação lógica (AESL). As técnicas e modelos utilizados no processo de simulação lógica são brevemente revistos. É definida uma taxonomia para AESL sob a qual são analisadas diversas propostas de AESL relatadas na literatura. Uma taxonomia já existente é comparada com a proposta. A AESL definida é programável para diferentes algoritmos de simulação lógica. O detalhamento da AESL é, então, incrementado pela implementação de um algoritmo particular. Uma linguagem de simulação discreta é utilizada na construção de um modelo da arquitetura. Os resultados da simulação deste modelo permitem avaliar o desempenho da AESL e otimizar sua estrutura. Uma comparação com outras arquiteturas conclui a análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho consiste em aplicar o método LTSn em cálculos de parâmetros críticos como Keff, espessura e concentração atômica e obtenção do fiuxo escalar, da potência específica e do enriquecimento do combustível em placa plana homogenea e heterogênea, considerando modelo multigrupo e em diversas ordens de quadraturas. O método LTSn consiste na aplicação da transformada de Laplace em um conjunto de equações~de ordenadas discretas gerado pela aproximação SN, resultando em um sistema de equações algébricas simbólicas dependentes do parâmetro complexo s e reconstrução dos fluxos angulares pela técnica de expansão de Heaviside. A aplicação do método LTSn reduz a soluçào de um problema de autovalor, a solução de uma equação transcedental, possibilitando a obtenção de parâmetros críticos. Simulações numéricas são apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo "Método dos Elementos Finitos" usando o código "QForm" é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código "Superforge".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho o método LTSN é utilizado para resolver a equação de transporte de fótons para uma placa plana heterogênea, modelo de multigrupo, com núcleo de espalhamento de Klein-Nishina, obtendo-se o fluxo de fótons em valores discretos de energia. O fluxo de fótons, juntamente com os parâmetros da placa foram usados para o cálculo da taxa de dose absorvida e do fator de buildup. O método LTSN consiste na aplicação da transformada de Laplace num conjunto de equações de ordenadas discretas, fornece uma solução analítica do sistema de equações lineares algébricas e a construção dos fluxos angulares pela técnica de expansão de Heaviside. Essa formulação foi aplicada ao cálculo de dose absorvida e ao fator de Buildup, considerando cinco valores de energia. Resultados numéricos são apresentados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo da distribuição da extinção na direção da Pequena Nuvem de Magalhães (PNM) é feito atravéss da contagem de galáxias de ”fundo”, e espectroscopicamente pela comparação de espectros nucleares de uma amostra das mesmas com os de galáxias de referência de similar população estelar. O método de contagens é baseado em um novo catálogo realizado no presente trabalho, contendo 3037 galáxias estendendo-se até a magnitude limite B¼ 20 em 6 placas do ESO/SERC na região da PNM e seus arredores. O método espectroscópico foi aplicado a uma amostra de 16 galáxias na mesma região, assim como numa outra de 27 galáxias na direção da Grande Nuvem de Magalhães, para comparação. A deficiência de galáxias indicada pelo método de contagens sugere E(B-V)=0.35 nas partes centrais da PNM, e E(B-V)=0.15 a 6º do centro. Por outro lado o método espectroscópico indica que a PNM é basicamente transparente. Sugerem-se as seguintes explicações para esta diferença: (i) a deficiência de galáxias nas regiões centrais detectadas pelo método de contagens é signifivativamente afetada pela alta concentração de estrelas e objetos extendidos pertencentes à PNM; (ii) a amostra espectroscópica conteria tipicamente galáxias em zonas menos avermelhadas, o que indicaria que a absorção ocorre em nuvens de poeira com uma distribuição preferencialmente discreta. A aplicação do m´etodo espectroscópico na GNM também sugere a presença de nuvens de poeira discretas nas suas regiões centrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conseguir que as pessoas trabalhem em conjunto, coordenando as qualificações de indivíduos diferentes constitui um grande desafio para gerir as rápidas e intensas mudanças que atingem as organizações atuais. Assim, o objetivo deste trabalho é descrever e analisar a percepção dos componentes de um grupo de trabalho que busca sua transformação em equipe. Para isso foram realizadas entrevistas individuais com as (10) pessoas que trabalham numa loja corporativa do setor de telecomunicações, uma dinâmica de grupo e observação participante, visando uma análise estruturada da pesquisa empírica e da teoria estudada. Os principais resultados da pesquisa mostram que não há transformação sem sofrimento. Trabalhar em equipe faz emergir o lado humano de cada um, com seus pontos positivos e negativos. Isto requer habilidades do gestor, no caso: compreender as pessoas, fazer leituras de atos implícitos e de táticas inconscientes, gerenciar situações de conflito, aumentando a produtividade e melhorando o clima da mesma. Conclui-se que na teoria, o processo de transformação parece simples e objetivo, porém, a realidade não é tão simples de ser transformada. É muito rico e produtivo o trabalho em equipe, mas há que se despender um grande esforço coletivo nesta caminhada. Todo o processo depende das pessoas, de mudança de comportamento e do conhecimento dos indivíduos. As iniciativas dos empregados são altamente influenciadas pelo exemplo do gestor. Não basta ao gestor dizer aos funcionários o que eles devem fazer; ele precisa ir junto com eles durante todo o caminho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho visou-se o estudo da eliminação dos compostos de nitrogênio, NOx, usando a decomposição direta sobre catalisadores de cobre suportado em zeólitas (ZSM-5, MCM-22 e Seta). Os catalisadores foram preparados pelo método de troca iônica com o meio básico obtendose catalisadores com teores de cobre variando entre 0,21% a 3,3% em peso. Os mesmo foram caracterizados através de análise química pela técnica absorção atômica (AA), área superficial (SET), isotermas de adsorção de nitrogênio, difração de Raios-X (DRX) e redução a temperatura programada (TPR). Os testes de atividade catalítica foram realizados através da reação de decomposição do NO em um reator tubular com leito fixo e fluxo contínuo. A mistura reacional era composta por 500 ppm de NO em hélio. Os produtos da reação foram analisados por espectrometria de infravermelho com transformada de fourier (do inglês, Fourier Transformed Infrared, FTIR), usando célula de gás. As medidas de absorção atômica permitiram calcular um nível de troca em relação a CU2+variando entre 7 e 46% nos catalisadores CuZSM-5, CuMCM-22 e CuSeta. As análises de DRX e das isotermas de adsorção de nitrogênio mostraram que a incorporação de cobre não alterou de forma significativa as estruturas das zeólitas. A análise de redução a temperatura programa (TPR) apresentou duas espécias de cobre presente nos catalisadores, Cu2+e Cu+ Na reação de decomposição dos compostos de nitrogênio, a atividade e a seletividade dos catalisadores é influenciada pela temperatura e pela acessibilidade do metal nas cavidades e nos poros das zeólitas. A partir dos testes de atividade catalítica provou-se que os suportes zeolíticos (MCM-22 e Seta) conduziram a valores de conversão de NO comparáveis ou melhores aos do suporte zeolítico ZSM-5, citado como sendo o melhor, até hoje, estudado para tal reação.