546 resultados para Sensori-Moteur


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le fibre ottiche sono materiali costituiti al loro interno da fibre di vetro o filamenti polimerici. Esse attualmente trovano grande impiego nel campo della telecomunicazione, ma è assai importante lo sviluppo che stanno ottenendo nel campo del monitoraggio strutturale. L’obiettivo del lavoro descritto in questo elaborato finale è di riuscire a sviluppare un programma in grado di computare una simulazione analitico-parametrica riguardante i segnali restituiti da un sensore in fibra ottica. In particolare, sono stati creati due codici (Codice 1 e Codice 2) per sostenere un Codice Esistente. Quest’ultimo prende in input dei dati sperimentali che, invece di essere ottenuti da prove in laboratorio, sono prodotti in uscita dal Codice 1, il quale simula prove a fatica o statiche in provini di diverso materiale. Attraverso l’analisi di questi dati, il codice finale crea delle curve probabilistiche in grado di asserire con quanta probabilità e con quale confidenza è possibile valutare i risultati esplicitati dallo strumento di rilevazione, che in questo caso è un sensore in fibra ottica. D’altra parte, il Codice 2 analizza le conseguenze nella Probability of Detection e confidenza al variare dei parametri maggiormente influenti nel modello.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio che verrà presentato in questo lavoro di tesi riguarda la caratterizzazione di Silicon PhotoMultiplier (SiPM): essi sono sensori a semiconduttore che sono stati proposti per la realizzazione del layer Time-Of-Flight (TOF) del nuovo esperimento proposto ad LHC, ALICE 3. Sono stati testati sensori diversi, sia in termini di casa di fabbricazione (FBK o HPK), sia in termini di struttura; in particolare, i modelli a disposizione di produzione FBK sono singoli SPAD, singoli SiPM e mini-array di SiPM, mentre i modelli HPK sono tutti singoli SiPM. La caratterizzazione è avvenuta mediante misure di corrente e capacità del sensore al variare della tensione (curve IV e curve CV); l'obiettivo primario è studiare e confrontare tali andamenti, in modo da poter selezionare i sensori con caratteristiche simili per la costruzione del layer del TOF. Si è osservato che sensori della stessa casa produttrice e con la stessa struttura interna esibiscono comportamenti quasi sovrapponibili, dimostrando in generale una ottima uniformità.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro presentato in questa tesi analizza il comportamento elettrico di prototipi di sensori Low-Gain Avalanche Detector (LGAD) ultrasottili. L'analisi consiste in una verifica sperimentale delle caratteristiche attese di questi sensori, che sono stati selezionati come possibili candidati per la realizzazione del sistema di Time-Of-Flight (TOF) nell'esperimento ALICE 3. Concepito come evoluzione dell'esperimento ALICE attualmente in funzione al CERN, ALICE 3 rappresenta l'archetipo di una nuova generazione di esperimenti nella fisica delle collisioni di ioni pesanti, ed è previsto iniziare la propria attività di presa dati per LHC Run 5 nel 2032. Sono stati presi in considerazione 22 campioni di LGAD, di cui 11 provenienti dal wafer di produzione 5 (spessore 25 um) e gli altri 11 dal wafer 6 (spessore 35 um). In entrambi i casi, di questi 11 sensori, 6 sono campioni in configurazione LGAD-PIN e 5 sono matrici. Tutti e 22 i campioni sono stati sottoposti a misure di corrente in funzione del voltaggio, mentre solo quelli appartenenti al wafer 5 anche a misure di capacità. L'obiettivo è quello di misurare la caratteristica IV e CV per ognuno dei campioni e da queste estrarre, rispettivamente, tensione di breakdown e profilo di doping.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sensori indossabili rappresentano una frontiera della ricerca scientifica e, allo stesso tempo, a livello commerciale sono un nuovo mercato emergente. La possibilità di studiare diversi parametri fisiologici con dispositivi versatili e di dimensioni ridotte è importante per raggiungere una comprensione più profonda dei diversi fenomeni che avvengono nel nostro corpo. In maniera simile, la composizione dell’essudato di una ferita è finemente legata all’evoluzione del processo di guarigione, che comporta diversi meccanismi di rigenerazione del tessuto connettivo e dell’epitelio. Grazie ai dispositivi indossabili, si apre la possibilità di monitorare i componenti chiave di questi processi. I wearable devices costituiscono quindi sia uno strumento diagnostico, che uno strumento clinico per l’identificazione e la valutazione di strategie terapeutiche più efficienti. Il mio lavoro di tirocinio si è incentrato sulla fabbricazione, caratterizzazione e sperimentazione delle performance di transistor elettrochimici a base organica (OECT) tessili per la misurazione dei livelli di pH ed acido urico. L’obbiettivo del gruppo di ricerca è quello di realizzare un cerotto intelligente che abbia due diversi elementi sensibili, uno per l’acido urico e l’altro per la concentrazione idrogenionica. Per il raggiungimento di tale scopo, si è sfruttato uno dei semiconduttori organici più utilizzati e studiati nell’ultimo periodo, il PEDOT, ovvero il poli(3,4-etilen-diossi-tiofene), che risulta anche uno dei materiali principalmente impiegati nella ricerca sui sensori tessili.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'elaborato tratta tutto ciò che riguarda le generalità sui biosensori, tra cui composizione, manipolazione ed elaborazione dati (circuiti di condizionamento), progettazione e campi di applicazione. Inoltre, una parte è riservata ad un particolare tipo di sensori, quelli indossabili, con una descrizione degli stessi e la presentazione di un progetto per la misurazione di determinati parametri in un paziente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although planning is important for the functioning of patients with dementia of the Alzheimer Type (DAT), little is known about response programming in DAT. This study used a cueing paradigm coupled with quantitative kinematic analysis to document the preparation and execution of movements made by a group of 12 DAT patients and their age and sex matched controls. Participants connected a series of targets placed upon a WACOM SD420 graphics tablet, in response to the pattern of illumination of a set of light emitting diodes (LEDs). In one condition, participants could programme the upcoming movement, whilst in another they were forced to reprogramme this movement on-line (i.e. they were not provided with advance information about the location of the upcoming target). DAT patients were found to have programming deficits, taking longer to initiate movements; particularly in the absence of cues. While problems spontaneously programming a movement might cause a greater reliance upon on-line guidance, when both groups were required to guide the movement on-line, DAT patients continued to show slower and less efficient movements implying declining sensori-motor function; these differences were not simply due to strategy or medication status. (C) 1997 Elsevier Science Ltd.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse que nous soutenons et que nous nous proposons de démontrer dans cet article est que la crise, chez Ortega y Gasset, loin d’instituer une rupture dans le processus de l’histoire, et de menacer ainsi sa continuité, en est la condition de possibilité. L’hypothèse que nous nous proposons de vérifier est que l’idée même d’un « sens » de l’histoire – nous reviendrons sur la manière bien particulière dont le philosophe madrilène entend cette expression – est garantie par la crise. Nous explorerons pour cela très précisément la tension qui réside entre l’affirmation ortéguienne selon laquelle la crise est le moteur de l’histoire d’une part, et la description à laquelle procède le philosophe madrilène de l’homme en crise comme acteur de l’histoire paralysé d’autre part.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction 1.1 Le sujet cérébral, rencontre entre le biologique et le social L'objectif de ce travail est d'éclairer une des voies par lesquelles le phénomène anthropologique de l'individualité prend corps au sein de l'environnement contemporain. L'individualisme est compris comme les divers processus par lesquels la détermination du sujet tend à s'autonomiser des appartenances préconstituées. Il est la forme sociologique qui gouverne la façon contemporaine de faire société depuis l'avènement de la «modernité ». Le choix de l'angle de la cérébralité pour aborder la question de recherche repose sur le postulat qu'une des particularités culturelles de la figure du sujet individuel contemporain est la tendance à attribuer aux mécanismes cérébraux le rôle déterminant dans la constitution de la subjectivité du sujet. Dès lors, si aujourd'hui, penser le cerveau c'est penser l'humain, il s'agit d'un phénomène anthropologique qui demande à être explicité. Il m'appartient de démontrer que le champ des neurosciences se profile comme révélateur privilégié pour observer comment penser l'individualité concorde avec l'établissement de vérités relatives au cérébral' . Faire l'anthropologie du proche et de l'actuel a ses intérêts mais comporte aussi des risques. La perte de ce qui faisait le moteur de la recherche anthropologique -l'altérité donnée des sujets de son observation - a été compensée par l'émergence de nouveaux objets de travail et par des reconfigurations des rapports que l'anthropologue entretient avec son terrain. Le renouvellement du cadre de réflexion opéré par l'anthropologie au cours du siècle écoulé suit les transformations des pratiques sociales, culturelles et économiques qui s'opèrent au niveau mondial. L'échelle désormais planétaire de la circulation des acteurs sociaux et des objets de savoir a forcé la discipline à revoir la grille de lecture qui a longtemps opposé sociétés traditionnelles à sociétés modernes. La prise de conscience de la caducité du grand partage a engagé les anthropologues à s'intéresser à des phénomènes en rapport avec des problèmes rencontrés au sein de leur propre collectif et, dans le même mouvement, les a amenée à repenser les articulations entre le global et le local, le particulier et l'universel. Le bouleversement heuristique généré par ce repositionnement n'est toutefois pas exempt de nouvelles difficultés pour la recherche ethnographique. En se posant le défi d'étudier des traits culturels propres à sa société d'appartenance, l'anthropologie s'ouvre à des terrains enquête sur la façon dont, dans le monde occidental, le constat toujours plus pesant de la discordance entre les phénomènes de vieillissement cognitif et l'allongement de l'espérance de vie est traité. Dans une démarche ethnographique, il s'agit de voir quelles sont les logiques d'action et les pratiques sociales développées en réponse à ces inadéquations. La thématique impose une navigation entre des domaines théoriques spécialisés et des champs d'activités possédant chacun leurs cadres de référence. Une telle entreprise suppose une multiplication des systèmes de référence devant être pris en compte. Toutes les disciplines approchées au cours de ce travail abondent en métaphores utiles à la mise en ordre de leur pensée et à la description de leurs objets de travail. Toutefois, faire résonner entre elles les différentes «cultures épistémiques » (Knorr-Cetina, 1999) pour mieux faire apparaître la trame sociale qui constitue leur arrière-fond équivaut souvent à forcer le trait. Le sens des mots varie selon leurs champs d'application et l'exercice de la mise en résonance peut s'avérer périlleux. Je me suis efforcée tout au long de ces pages de préciser de quel point de vue les énoncés considérés sont formulés. L'analyse anthropologique étant guidée par la recherche des points de liaison entre les différents registres, la démarche est forcément limitée dans le niveau d'approfondissement auquel elle peut tendre. Elle risque de décevoir les lecteurs experts dans les domaines soumis à la grille de lecture de cette discipline, non familiers avec les concepts anthropologiques. Il est probable qu'un certain flou subsiste dans la façon dont ces énoncés sont décris par rapport au traitement dont ils sont l'objet dans leurs disciplines respectives. Si on perd de vue la préoccupation centrale de l'anthropologie, consistant à éclairer le système de valeurs commun sous-tendant les pratiques sociales observées, la lecture d'un tel travail risque effectivement de rater son but. En revanche, en acceptant d'emblée de se prêter à un décentrement par rapport à son modèle disciplinaire, le lecteur doit pouvoir appréhender des aspects intéressant ses propres pratiques. S'intéresser à ce qui relie les savoirs et les pratiques au sein d'un monde commun, voilà un programme heuristique qui va à l'encontre de la logique de spécialisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hétérotopie sous-corticale en bandes ou double-cortex est une malformation cérébrale causée par une interruption de la migration des neurones du néocortex pendant sa formation. La souris HeCo est un modèle murin de cette affection, caractérisée par un amas de neurones corticaux dans la substance blanche sous-corticale. Les signes cliniques de cette maladie sont le plus souvent une épilepsie réfractaire, un retard développemental et mental. Chez l'homme, l'hétérotopie se trouve en partie en profondeur du cortex somatotopique moteur et sensitif et semble participer à leurs fonctions. L'IRM fonctionnelle a montré lors d'une tâche motrice (taper des doigts), l'activation en plus du cortex moteur controlatéral du cortex hétérotopique sous-jacent. La pathogenèse des malformations corticales est toujours mal comprise, c'est pourquoi il est important d'avoir plusieurs modèles animaux. Jusqu'il a peu, il n'existait que le rat TISH, découvert en 1997, dont la génétique n'est pas connue à ce jour. La souris HeCo est un nouveau modèle animal de malformation corticale dont le gène muté impliquant une protéine associée aux microtubules a été découvert récemment. Elle partage avec les cas humains un seuil épileptique abaissé et un certain retard développemental. Objectif : Déterminer si le cortex hétérotopique de la souris HeCo est activé lors d'une tâche sensitive (exploration de l'environnement à l'aide des vibrisses du museau). Méthode : Chez la souris, les vibrisses sont des organes sensitifs essentiels dans l'exploration de l'environnement. Pour déterminer si le cortex hétérotopique est actif lors d'une tâche sensitive, on utilisera donc un exercice de découverte d'une cage enrichie en stimulus. Afin de visualiser les régions du cerveau actives, on utilisera plusieurs méthodes: l'autoradiographie ([14C]2- deoxyglucose, 2-DG) et l'immunohistochimie c-Fos. Le 2-DG est un analogue du glucose qui se fixe dans les régions cérébrales métaboliquement actives, ici impliquées dans la sensibilité. Il est injecté dans le péritoine de la souris à jeun avant l'exploration. Le contrôle négatif se fera en coupant les vibrisses d'un côté avant la tâche sensitive. A la fin de la tâche, on prélève des coupes du cerveau pour mesurer l'autoradioactivité. L'immunohistochimie c-Fos est réalisée sur les cerveaux de souris ayant effectué la même tâche sensitive et détecte une protéine d'activation neuronale. Afin de détecter une activation de l'hétérotopie à plus long terme, on utilisera la cytochrome oxydase, une enzyme qui met en évidence les régions contenant beaucoup de mitochondries, donc métaboliquement très actives. Résultats : La cytochrome oxydase a marqué de façon égale le cortex homotopique de la souris HeCo et le cortex des souris contrôle. Par ailleurs, chez le mutant, elle a montré un faible marquage dans la partie médiale de l'hétérotopie et des zones de marquage plus intenses dans sa partie latérale. L'autoradiographie 2-DG a montré un pattern classique d'activation du cortex homotopique du côté stimulé, avec une intensité plus marquée dans la couche IV. Du même côté, l'hétérotopie latérale montre une intensité similaire à celui de la couche IV. Du côté non stimulé, on note une intensité faible, tant dans le cortex homotopique que dans le cortex hétérotopique. L'immunohistochimie c-Fos a montré une nette différence entre l'hémisphère stimulé et l'hémisphère non stimulé dans la couche IV comme dans l'hétérotopie. Il existe, tant du côté stimulé que du côté non stimulé, un gradient dans l'hétérotopie, le marquage latéral étant du même ordre que dans la couche IV alors qu'il est moins intense médialement. Conclusion : l'hétérotopie corticale latérale, située en particulier sous le cortex somatosensoriel, semble traiter l'information périphérique controlatérale dans le même ordre que le cortex homotopique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Introduction : Le Glasgow coma score (GCS) est un outil reconnu permettant l'évaluation des patients après avoir subi un traumatisme crânien. Il est réputé pour sa simplicité et sa reproductibilité permettant ainsi aux soignants une évaluation appropriée et continue du status neurologique des patients. Le GCS est composé de trois catégories évaluant la réponse oculaire, verbale et motrice. En Suisse, les soins préhospitaliers aux patients victimes d'un trauma crânien sévère sont effectués par des médecins, essdntiellement à bord des hélicoptères médicalisés. Avant une anesthésie générale nécessaire à ces patients, une évaluation du GCS est essentielle indiquant au personnel hospitalier la gravité des lésions cérébrales. Afin d'évaluer la connaissance du GCS par les médecins à bord des hélicoptères médicalisés en Suisse, nous avons élaboré un questionnaire, contenant dans une première partie des questions sur les connaissances générales du GCS suivi d'un cas clinique. Objectif : Evaluation des connaissances pratiques et théoriques du GCS par les médecins travaillant à bord des hélicoptères médicalisés en Suisse. Méthode : Etude observationnelle prospective et anonymisée à l'aide d'un questionnaire. Evaluation des connaissances générales du GCS et de son utilisation clinique lors de la présentation d'un cas. Résultats : 16 des 18 bases d'hélicoptères médicalisés suisses ont participé à notre étude. 130 questionnaires ont été envoyés et le taux de réponse a été de 79.2%. Les connaissances théoriques du GCS étaient comparables pour tous les médecins indépendamment de leur niveau de formation. Des erreurs dans l'appréciation du cas clinique étaient présentes chez 36.9% des participants. 27.2% ont commis des erreurs dans le score moteur et 18.5% dans le score verbal. Les erreurs ont été répertoriées le plus fréquemment chez les médecins assistants (47.5%, p=0.09), suivi par les chefs de clinique (31.6%, p=0.67) et les médecins installés en cabinet (18.4%, p=1.00). Les médecins cadres ont fait significativement moins d'erreurs que les autres participants (0%, p<0.05). Aucune différence significative n'à été observée entre les différentes spécialités (anesthésie, médecine interne, médecine général et «autres »). Conclusion Même si les connaissances théoriques du GCS sont adéquates parmi les médecins travaillant à bord des hélicoptères médicalisés, des erreurs dans son application clinique sont présentes dans plus d'un tiers des cas. Les médecins avec le moins d'expériences professionnelle font le plus d'erreurs. Au vu de l'importance de l'évaluation correcte du score de Glasgow initial, une amélioration des connaissances est indispensable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The authors present the case of an open fracture of femur Cauchoix type II with an infection due to Escherichia coli, Clostridium perfringens, Enterococcus and Aspergillus fumigatus. After several sequestrectomies and five hyperbaric sessions, apyrexia was attained at the end of the third month, the femur having been stabilised with an external fixator. The 15 cm gap due to loss of bone substance, filled at each dressing with an antiseptic iodine based ointment, closed itself finishing as continuous bone five months after the accident, the granulation tissue having been recovered by thin skin grafts. A repeated fracture occurring forty-eight hours after the removal of the Hoffmann frame was treated by fitting an Ilizarov fixator arriving at consolidation in seven months. The authors examine different possibilities of accelerating osteogenesis and highlight the potential role of iodine ointment as inductive to osteogenesis stemming from a periosteal layer seemingly held in place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le plan Nous nous proposons de distinguer dans l'oeuvre d'Ovsjaniko-Kulikovskij quatre étapes selon les sujets qu'il aborde dont les trois premières nous concernent directement: 1) les oeuvres de jeunesse portant sur le sanskrit et sur l'histoire de la pensée (1882-1892), 2) le noeud de sa conception (1893-1896), 3) les études spécialisées et les conclusions (1897-1902) et 4) ouvrages sur la théorie de la littérature et de l'art (à partir de 1903 environ, cette division étant approximative). Notre recherche ne suivra pas un plan strictement chronologique. Nous comptons évoquer les oeuvres en suivant leur apparition sans pour autant faire l'analyse détaillée de chacune d'elles. Au contraire, notre méthode d'analyse consistera à 1) dégager les idées maîtresses d'Ovsjaniko-Kulikovskij et leurs interrelations et 2) suivre leur évolution en les rapportant aux théories voisines en linguistique et dans d'autres sciences. Dans la partie I, intitulée «Une indo-européanistique évolutionniste», nous concentrerons notre attention tout d'abord sur les spécificités du parcours intellectuel d'Ovsjaniko-Kulikovskij par rapport à ses contemporains. Nous suivrons l'influence sur lui de cet «air du temps » de la fin du XIX' siècle qui rendait ses recherches indo-européennes évolutionnistes, à partir du réseau des présupposés de cette théorie. Nous verrons comment naît son insatisfaction devant les conceptions existantes du langage et comment se formulent les tâches et la problématique de la nouvelle conception qu'il veut élaborer. Dans la partie II, intitulée «Vers une linguistique énergétique», nous analyserons la constitution des piliers de sa conception, de ses idées originales qui la distinguent de ses contemporains. Nous nous intéresserons à la question du «nouveau» dans la science en nous référant aux conditions de production d'une conception nouvelle, à l'«air du temps» et à l'«air du lieu»: le raisonnement énergétique dans les sciences. Nous procéderons à une comparaison constante avec les conceptions de ses prédécesseurs (en particulier de ceux qu'il cite lui-même en tant que tels) et de ses contemporains. Dans la partie III, intitulée «Une syntaxe énergétique», nous nous intéresserons à ce que la conception d'Ovsjaniko-Kulikovskij a apporté de nouveau aux questions du «temps». A-t-il pu construire une «linguistique scientifique»? Comment le raisonnement énergétique sert-il à la fois de moteur et de frein à sa conception, lui ouvre-t-il de nouveaux horizons et lui dicte-t-il des limites? Dans la conclusion, enfin, nous dresserons le bilan de l'étude en démontrant quel intérêt il y a, pour l'histoire de la linguistique, à situer un auteur dans un tel croisement d'associations spatio-temporelles.