995 resultados para Interfaccia, Cervello, Computer, Attività, Cerebrale, Tecnologia, BCI


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa investiga as experiências dos professores nas Séries Iniciais do Ensino Fundamental no Estado de São Paulo, sobre o uso do computador como uma ferramenta de trabalho, procurando identificar as relações que estão construindo com o uso das tecnologias tanto na organização e no planejamento de suas aulas quanto na construção dos saberes pedagógicos que podem fazer com o uso do computador. Identificam-se nesse trabalho o acesso e o domínio que os professores têm no dia-a-dia em relação ao computador (incluindo o acesso à internet) e as experiências que estão realizando com o auxilio do computador e da internet. Foi utilizado o conceito de familiarização para análise da relação do professor com o computador.Foram realizadas entrevistas e aplicados questionários aos professores que atuam nos sistemas de ensino público e privado, no Estado de São Paulo, primeiro nível do Ensino Fundamental (1ª a 4ª séries / 2° ao 5° ano ), e aos alunos do curso de Pedagogia. O trabalho evidenciou que existe uma relação de familiarização dos professores, e esse nível passa pelo interesse e pela experiência individual antes de passar para o lado profissional do uso do computador e internet na sala de aula. Não há evidências de resistência ao uso do computador, as atividades com alunos avançam à medida que o professor se desenvolve no uso da tecnologia.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa investiga as experiências dos professores nas Séries Iniciais do Ensino Fundamental no Estado de São Paulo, sobre o uso do computador como uma ferramenta de trabalho, procurando identificar as relações que estão construindo com o uso das tecnologias tanto na organização e no planejamento de suas aulas quanto na construção dos saberes pedagógicos que podem fazer com o uso do computador. Identificam-se nesse trabalho o acesso e o domínio que os professores têm no dia-a-dia em relação ao computador (incluindo o acesso à internet) e as experiências que estão realizando com o auxilio do computador e da internet. Foi utilizado o conceito de familiarização para análise da relação do professor com o computador.Foram realizadas entrevistas e aplicados questionários aos professores que atuam nos sistemas de ensino público e privado, no Estado de São Paulo, primeiro nível do Ensino Fundamental (1ª a 4ª séries / 2° ao 5° ano ), e aos alunos do curso de Pedagogia. O trabalho evidenciou que existe uma relação de familiarização dos professores, e esse nível passa pelo interesse e pela experiência individual antes de passar para o lado profissional do uso do computador e internet na sala de aula. Não há evidências de resistência ao uso do computador, as atividades com alunos avançam à medida que o professor se desenvolve no uso da tecnologia.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

While taking paths from the archive to the new, this dissertation reflects on the resulting impacts of the introduction, massification and dissemination of digital technology, in the way we store and deal with information, inside the complex that we understand as culture. To this end, a theoretical investigation is performed in order to build a conceptual body from which concepts are drawn in order to effectuate a practical research. The theoretical research starts with an exordium in which the concept of the archive is deconstructed in order to identify it as a device of power and to analyse its transition from a technical analog object into a digital technology. Following this, a historical context is established, drawing on the evolution of power exercises and apparatuses, and a reading of the impacts of the present technological mediation on experience, knowledge cons¬truction and forms of control is developed. Finally, some hypotheses on the evolution of technology are formulated. The practical research materializes in the form of a digital platform which takes place in two moments: one of archive, the other of program. The first moment, of archive, con¬sists of a repository of projects dealing with the dissertation’s subject. The second moment, of program, is configured as a cultural program implemented through computer programs. These, in their execution, result in performances which, taking from the information col¬lected on the archive generate a new experience of that same information. To this effect, a framework was structured in order to have computational processes systematized in a way that the performances result in experiences with a potential for novelty, expression and reflection. Both theoretical and practical components of the research seek to address digital technology not as an end in itself, but as a factor that affects human experience and behaviour

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As digital systems move away from traditional desktop setups, new interaction paradigms are emerging that better integrate with users’ realworld surroundings, and better support users’ individual needs. While promising, these modern interaction paradigms also present new challenges, such as a lack of paradigm-specific tools to systematically evaluate and fully understand their use. This dissertation tackles this issue by framing empirical studies of three novel digital systems in embodied cognition – an exciting new perspective in cognitive science where the body and its interactions with the physical world take a central role in human cognition. This is achieved by first, focusing the design of all these systems on a contemporary interaction paradigm that emphasizes physical interaction on tangible interaction, a contemporary interaction paradigm; and second, by comprehensively studying user performance in these systems through a set of novel performance metrics grounded on epistemic actions, a relatively well established and studied construct in the literature on embodied cognition. The first system presented in this dissertation is an augmented Four-in-a-row board game. Three different versions of the game were developed, based on three different interaction paradigms (tangible, touch and mouse), and a repeated measures study involving 36 participants measured the occurrence of three simple epistemic actions across these three interfaces. The results highlight the relevance of epistemic actions in such a task and suggest that the different interaction paradigms afford instantiation of these actions in different ways. Additionally, the tangible version of the system supports the most rapid execution of these actions, providing novel quantitative insights into the real benefits of tangible systems. The second system presented in this dissertation is a tangible tabletop scheduling application. Two studies with single and paired users provide several insights into the impact of epistemic actions on the user experience when these are performed outside of a system’s sensing boundaries. These insights are clustered by the form, size and location of ideal interface areas for such offline epistemic actions to occur, as well as how can physical tokens be designed to better support them. Finally, and based on the results obtained to this point, the last study presented in this dissertation directly addresses the lack of empirical tools to formally evaluate tangible interaction. It presents a video-coding framework grounded on a systematic literature review of 78 papers, and evaluates its value as metric through a 60 participant study performed across three different research laboratories. The results highlight the usefulness and power of epistemic actions as a performance metric for tangible systems. In sum, through the use of such novel metrics in each of the three studies presented, this dissertation provides a better understanding of the real impact and benefits of designing and developing systems that feature tangible interaction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-05

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-06

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa investiga as experiências dos professores nas Séries Iniciais do Ensino Fundamental no Estado de São Paulo, sobre o uso do computador como uma ferramenta de trabalho, procurando identificar as relações que estão construindo com o uso das tecnologias tanto na organização e no planejamento de suas aulas quanto na construção dos saberes pedagógicos que podem fazer com o uso do computador. Identificam-se nesse trabalho o acesso e o domínio que os professores têm no dia-a-dia em relação ao computador (incluindo o acesso à internet) e as experiências que estão realizando com o auxilio do computador e da internet. Foi utilizado o conceito de familiarização para análise da relação do professor com o computador.Foram realizadas entrevistas e aplicados questionários aos professores que atuam nos sistemas de ensino público e privado, no Estado de São Paulo, primeiro nível do Ensino Fundamental (1ª a 4ª séries / 2° ao 5° ano ), e aos alunos do curso de Pedagogia. O trabalho evidenciou que existe uma relação de familiarização dos professores, e esse nível passa pelo interesse e pela experiência individual antes de passar para o lado profissional do uso do computador e internet na sala de aula. Não há evidências de resistência ao uso do computador, as atividades com alunos avançam à medida que o professor se desenvolve no uso da tecnologia.(AU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper examines the application of commercial and non-invasive electroencephalography (EEG)-based brain-computer (BCIs) interfaces with serious games. Two different EEG-based BCI devices were used to fully control the same serious game. The first device (NeuroSky MindSet) uses only a single dry electrode and requires no calibration. The second device (Emotiv EPOC) uses 14 wet sensors requiring additional training of a classifier. User testing was performed on both devices with sixty-two participants measuring the player experience as well as key aspects of serious games, primarily learnability, satisfaction, performance and effort. Recorded feedback indicates that the current state of BCIs can be used in the future as alternative game interfaces after familiarisation and in some cases calibration. Comparative analysis showed significant differences between the two devices. The first device provides more satisfaction to the players whereas the second device is more effective in terms of adaptation and interaction with the serious game.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose in this work, a new method of conceptual organization of areas involving assistive technology, categorizing them in a logical and simple manner; Furthermore, we also propose the implementation of an interface based on electroculography, able to generate high-level commands, to trigger robotic, computer and electromechanical devices. To validate the eye interface, was developed an electronic circuit associated with a computer program that captured the signals generated by eye movements of users, generating high-level commands, able to trigger an active bracing and many other electromechanical systems. The results showed that it was possible to control many electromechanical systems through only eye movements. The interface is presented as a viable way to perform the proposed task and can be improved in the signals analysis in the the digital level. The diagrammatic model developed, presented as a tool easy to use and understand, providing the conceptual organization needs of assistive technology

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Brain-computer interfaces (BCI) have the potential to restore communication or control abilities in individuals with severe neuromuscular limitations, such as those with amyotrophic lateral sclerosis (ALS). The role of a BCI is to extract and decode relevant information that conveys a user's intent directly from brain electro-physiological signals and translate this information into executable commands to control external devices. However, the BCI decision-making process is error-prone due to noisy electro-physiological data, representing the classic problem of efficiently transmitting and receiving information via a noisy communication channel.

This research focuses on P300-based BCIs which rely predominantly on event-related potentials (ERP) that are elicited as a function of a user's uncertainty regarding stimulus events, in either an acoustic or a visual oddball recognition task. The P300-based BCI system enables users to communicate messages from a set of choices by selecting a target character or icon that conveys a desired intent or action. P300-based BCIs have been widely researched as a communication alternative, especially in individuals with ALS who represent a target BCI user population. For the P300-based BCI, repeated data measurements are required to enhance the low signal-to-noise ratio of the elicited ERPs embedded in electroencephalography (EEG) data, in order to improve the accuracy of the target character estimation process. As a result, BCIs have relatively slower speeds when compared to other commercial assistive communication devices, and this limits BCI adoption by their target user population. The goal of this research is to develop algorithms that take into account the physical limitations of the target BCI population to improve the efficiency of ERP-based spellers for real-world communication.

In this work, it is hypothesised that building adaptive capabilities into the BCI framework can potentially give the BCI system the flexibility to improve performance by adjusting system parameters in response to changing user inputs. The research in this work addresses three potential areas for improvement within the P300 speller framework: information optimisation, target character estimation and error correction. The visual interface and its operation control the method by which the ERPs are elicited through the presentation of stimulus events. The parameters of the stimulus presentation paradigm can be modified to modulate and enhance the elicited ERPs. A new stimulus presentation paradigm is developed in order to maximise the information content that is presented to the user by tuning stimulus paradigm parameters to positively affect performance. Internally, the BCI system determines the amount of data to collect and the method by which these data are processed to estimate the user's target character. Algorithms that exploit language information are developed to enhance the target character estimation process and to correct erroneous BCI selections. In addition, a new model-based method to predict BCI performance is developed, an approach which is independent of stimulus presentation paradigm and accounts for dynamic data collection. The studies presented in this work provide evidence that the proposed methods for incorporating adaptive strategies in the three areas have the potential to significantly improve BCI communication rates, and the proposed method for predicting BCI performance provides a reliable means to pre-assess BCI performance without extensive online testing.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una Brain Computer Interface (BCI) è un dispositivo che permette la misura e l’utilizzo di segnali cerebrali al fine di comandare software e/o periferiche di vario tipo, da semplici videogiochi a complesse protesi robotizzate. Tra i segnali attualmente più utilizzati vi sono i Potenziali Evocati Visivi Steady State (SSVEP), variazioni ritmiche di potenziale elettrico registrabili sulla corteccia visiva primaria con un elettroencefalogramma (EEG) non invasivo; essi sono evocabili attraverso una stimolazione luminosa periodica, e sono caratterizzati da una frequenza di oscillazione pari a quella di stimolazione. Avendo un rapporto segnale rumore (SNR) particolarmente favorevole ed una caratteristica facilmente studiabile, gli SSVEP sono alla base delle più veloci ed immediate BCI attualmente disponibili. All’utente vengono proposte una serie di scelte ciascuna associata ad una stimolazione visiva a diversa frequenza, fra le quali la selezionata si ripresenterà nelle caratteristiche del suo tracciato EEG estratto in tempo reale. L’obiettivo della tesi svolta è stato realizzare un sistema integrato, sviluppato in LabView che implementasse il paradigma BCI SSVEP-based appena descritto, consentendo di: 1. Configurare la generazione di due stimoli luminosi attraverso l’utilizzo di LED esterni; 2. Sincronizzare l’acquisizione del segnale EEG con tale stimolazione; 3. Estrarre features (attributi caratteristici di ciascuna classe) dal suddetto segnale ed utilizzarle per addestrare un classificatore SVM; 4. Utilizzare il classificatore per realizzare un’interfaccia BCI realtime con feedback per l’utente. Il sistema è stato progettato con alcune delle tecniche più avanzate per l’elaborazione spaziale e temporale del segnale ed il suo funzionamento è stato testato su 4 soggetti sani e comparato alle più moderne BCI SSVEP-based confrontabili rinvenute in letteratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il seguente elaborato ha lo scopo di analizzare, attraverso modelli neuro-computazionali, le possibili alterazioni delle risposte in pazienti con malattia di Parkinson, sia indotte da alterazioni del livello di dopamina, sia indotte da modificazioni sinaptiche. Il punto chiave per comprendere i sintomi di PD e il loro deterioramento temporale si deve cercare nel rapporto tra l'attività dei neuroni in BG (in particolare nello striato) e i livelli di dopamina (o levodopa) nel cervello. Di conseguenza, l'obiettivo di questo elaborato è quello di quantificare la connessione tra i livelli di levodopa e performance del finger tapping per mezzo di modelli biologici e simulazioni al computer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le piante e gli animali presentano elementi comuni nel loro sistema di difesa contro gli agenti patogeni, come la sintesi diretta di enzimi idrolitici (chitinasi, glucanasi, proteinasi e ossidasi) e di peptidi antimicrobici (AMPs). Gli AMPs sono peptidi ampiamente espressi negli organismi animali (vertebrati e invertebrati) e nelle piante. Possono essere espressi costitutivamente o rapidamente indotti inseguito ad uno stimolo biotico, a differenti livelli cellulari, per interagire direttamente con l’agente infettante e/o per modulare la risposta immunitaria contro i patogeni. Tali peptidi sono oggi classificati in relazione alle loro caratteristiche biochimiche (carica netta) e/ o alle loro caratteristiche strutturali (composizione amminoacidica, struttura lineare o circolare). In base a queste caratteristiche le molecole possono essere distinte nei seguenti gruppi: 1) peptidi lineari ad alfa elica; 2) peptidi ciclici con β-sheets e due o più ponti disolfuro; 3) peptidi con alfa elica e β-sheets stabilizzati da ponti disolfuro; 4) peptidi con hairpin o loop stabilizzati da ponti disolfuro; 5) peptidi lineari con residui aminoacidici ripetuti, come prolina, glicina, triptofano o istidina; 6) piccoli peptidi con struttura avvolta o con una struttura secondaria non definita. Nonostante la loro diversità strutturale, i peptidi antimicrobici presentano la caratteristica comune di inibire la crescita di un largo spettro di microbi, quali Gram-positivi, Gram-negativi, funghi e in alcuni casi anche virus, tanto da far coniare il termine di “antibiotici naturali”. Negli ultimi anni è notevolmente incrementato l’interesse verso tali peptidi dal momento che dati scientifici hanno mostrato che questi non inducono lo sviluppo di meccanismi di resistenza nei microrganismi patogeni. Gli AMPs quindi potrebbero costituire una valida alternativa non solo in ambito sanitario, per la sostituzione di antibiotici di sintesi chimica e di origine microbiologica, ma potrebbero avere un importante utilizzo in campo industriale e nello sviluppo di nuovi sistemi di conservazione degli alimenti al fine di incrementare la loro “shelf-life”.