1000 resultados para Alignement tâche-technologie
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
Le concept de responsiveness ou « responsivité » a été proposé dans le domaine de la recherche en psychothérapie pour décrire l'influence mutuelle qui s'exerce continuellement entre patient et thérapeute. La nature responsive des psychothérapies pose alors un problème majeur aux chercheurs, qui adoptent généralement des plans de recherche impliquant des liens de cause à effet et sont en échec dans leur entreprise de mieux comprendre le changement thérapeutique. L'objectif de notre travail est de proposer des pistes pour répondre à ce problème. Nous avons adopté la méthode d'étude de cas, qui permet une analyse en profondeur et en contexte des processus de changement. Dans les deux premières phases de la recherche, nous nous situions dans une approche spécifique à la recherche qualitative en psychothérapie. Nous avons tout d'abord analysé comment le changement s'effectuait chez le patient, en identifiant pas à pas le niveau d'assimilation de ses expériences problématiques. Nous avons ensuite tenté d'appréhender le rôle du thérapeute dans le processus de changement. Notre objectif était d'analyser comment la responsivité du thérapeute pouvait faciliter le processus de changement chez le patient à chaque instant de la thérapie. En suivant une procédure inspirée de l'analyse de la tâche, nous avons identifié pour chaque niveau d'assimilation des interventions thérapeutiques suivies de progression, et élaboré un modèle empirique séquentiel. Dans la troisième phase de la recherche, nous avons effectué un tournant dans notre parcours et sommes allée du côté des sciences du langage. En adoptant une approche dialogique du discours, notre objectif était d'éclairer notre objet d'étude à partir d'une nouvelle perspective et d'ouvrir la réflexion. Nous avons ainsi pu répondre à certaines limites rencontrées dans les premières phases de la recherche, et faire émerger de nouvelles questions et perspectives pour l'étude des processus de changement dans une dimension interactive. -- The concept of responsiveness was developed in psychotherapy research to describe the mutual and constant influence between patient and therapist. The responsive nature of psychotherapy is a serious problem for researchers, who generally adopt research designs involving cause-effect reasoning and fail to better understand therapeutic change. The purpose of our work is to propose some viable possibilities to respond to this problem. We chose the case study method, which enables an analysis in depth and in context of change processes. In the two first phases of research, our approach was specific to qualitative psychotherapy research. We first analyzed how change occurred in the patient, by identifying moment-by-moment the level of assimilation of his or her problematic experiences. We then tried to apprehend the therapist role in the change process. Our aim was to analyze how the therapist responsiveness could facilitate the patient change process at any moment of psychotherapy. We followed a procedure inspired by task analysis and, for each level of assimilation, we identified therapist interventions followed by progression, and elaborated an empirical sequential model. The third phase of research was a turning point, as we went in the field of linguistics. We adopted a dialogical approach of discourse to open up reflection. Thus, we could answer some limitations encountered in the first phases of research, and new questions and perspectives to study change process taking into account the interactive dimension emerged.
Resumo:
L'évolution de l'environnement économique, des chaînes de valeur et des modèles d'affaires des organisations augmentent l'importance de la coordination, qui peut être définie comme la gestion des interdépendances entre des tâches réalisées par des acteurs différents et concourants à un objectif commun. De nombreux moyens sont mis en oeuvre au sein des organisations pour gérer ces interdépendances. A cet égard, les activités de coordination bénéficient massivement de l'appui des technologies de l'information et de communication (TIC) qui sont désormais disséminées, intégrées et connectées sous de multiples formes tant dans l'environnement privé que professionnel. Dans ce travail, nous avons investigué la question de recherche suivante : comment l'ubiquité et l'interconnec- tivité des TIC modifient-elles les modes de coordination ? A travers quatre études en systèmes d'information conduites selon une méthodologie design science, nous avons traité cette question à deux niveaux : celui de l'alignement stratégique entre les affaires et les systèmes d'information, où la coordination porte sur les interdépendances entre les activités ; et celui de la réalisation des activités, où la coordination porte sur les interdépendances des interactions individuelles. Au niveau stratégique, nous observons que l'ubiquité et l'interconnectivité permettent de transposer des mécanismes de coordination d'un domaine à un autre. En facilitant différentes formes de coprésence et de visibilité, elles augmentent aussi la proximité dans les situations de coordination asynchrone ou distante. Au niveau des activités, les TIC présentent un très fort potentiel de participation et de proximité pour les acteurs. De telles technologies leur donnent la possibilité d'établir les responsabilités, d'améliorer leur compréhension commune et de prévoir le déroulement et l'intégration des tâches. La contribution principale qui émerge de ces quatre études est que les praticiens peuvent utiliser l'ubiquité et l'interconnectivité des TIC pour permettre aux individus de communi-quer et d'ajuster leurs actions pour définir, atteindre et redéfinir les objectifs du travail commun. -- The evolution of the economic environment and of the value chains and business models of organizations increases the importance of coordination, which can be defined as the management of interdependences between tasks carried out by different actors and con-tributing to a common goal. In organizations, a considerable number of means are put into action in order to manage such interdependencies. In this regard, information and communication technologies (ICT), whose various forms are nowadays disseminated, integrated and connected in both private and professional environments, offer important support to coordination activities. In this work, we have investigated the following research question: how do the ubiquity and the interconnectivity of ICT modify coordination mechanisms? Throughout four information systems studies conducted according to a design science methodology, we have looked into this question at two different levels: the one of strategic alignment between business and information systems strategy, where coordination is about interdependencies between activities; and the one of tasks, where coordination is about interdependencies between individual interactions. At the strategic level, we observe that ubiquity and interconnectivity allow for transposing coordination mechanisms from one field to another. By facilitating various forms of copresence and visibility, they also increase proximity in asynchronous or distant coordination situations. At the tasks level, ICTs offer the actors a very high potential for participation and proximity. Such technologies make it possible to establish accountability, improve common understanding and anticipate the unfolding and integration of tasks. The main contribution emerging from these four studies is that practitioners can use the ubiquity and interconnectivity of ICT in order to allow individuals to communicate and adjust their actions to define, reach and redefine the goals of common work.
Resumo:
The term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. In natural settings, a sound produced by a living being or an object provides information about the identity and the location of the sound source. Sound's identity is orocessed alono the ventral "What" pathway which consists of regions within the superior and middle temporal cortices as well as the inferior frontal gyrus. This work concerns the creation of individual auditory object representations in narrow semantic categories and their plasticity using electrical imaging. Discrimination of sounds from broad category has been shown to occur along a temporal hierarchy and in different brain regions along the ventral "What" pathway. However, sounds belonging to the same semantic category, such as faces or voices, were shown to be discriminated in specific brain areas and are thought to represent a special class of stimuli. I have investigated how cortical representations of a narrow category, here birdsongs, is modulated by training novices to recognized songs of individual bird species. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory ventral "What" pathway as a function of the level of expertise newly acquired. Correct recognition of trained items induces a sharpening within a left-lateralized semantic network starting around 200ms, whereas untrained items' processing occurs later in lower-level and memory-related regions. With another category of sounds belonging to the same category, here heartbeats, I investigated the cortical representations of correct and incorrect recognition of sounds. Source estimations revealed differential representations partially overlapping with regions involved in the semantic network that is activated when participants became experts in the task. Incorrect recognition also induces a higher activation when compared to correct recognition in regions processing lower-level features. The discrimination of heartbeat sounds is a difficult task and requires a continuous listening. I investigated whether the repetition effects are modulated by participants' behavioral performance. Dynamic source estimations revealed repetition suppression in areas located outside of the semantic network. Therefore, individual environmental sounds become meaningful with training. Their representations mainly involve a left-lateralized network of brain regions that are tuned with expertise, as well as other brain areas, not related to semantic processing, and occurring in early stages of semantic processing. -- Le terme objet sonore" décrit une expérience auditive associée à un événement acoustique produit par une source sonore. Dans l'environnement, un son produit par un être vivant ou un objet fournit des informations concernant l'identité et la localisation de la source sonore. Les informations concernant l'identité d'un son sont traitée le long de la voie ventrale di "Quoi". Cette voie est composée de regions situées dans le cortex temporal et frontal. L'objet de ce travail est d'étudier quels sont les neuro-mecanismes impliqués dans la représentation de nouveaux objets sonores appartenant à une meme catégorie sémantique ainsi que les phénomènes de plasticité à l'aide de l'imagerie électrique. Il a été montré que la discrimination de sons appartenant à différentes catégories sémantiques survient dans différentes aires situées le long la voie «Quoi» et suit une hiérarchie temporelle II a également été montré que la discrimination de sons appartenant à la même catégorie sémantique tels que les visages ou les voix, survient dans des aires spécifiques et représenteraient des stimuli particuliers. J'ai étudié comment les représentations corticales de sons appartenant à une même catégorie sémantique, dans ce cas des chants d'oiseaux, sont modifiées suite à un entraînement Pour ce faire, des sujets novices ont été entraînés à reconnaître des chants d'oiseaux spécifiques L'analyse des estimations des sources neuronales au cours du temps a montré que les representations des objets sonores activent de manière différente des régions situées le long de la vo,e ventrale en fonction du niveau d'expertise acquis grâce à l'entraînement. La reconnaissance des chants pour lesquels les sujets ont été entraînés implique un réseau sémantique principalement situé dans l'hémisphère gauche activé autour de 200ms. Au contraire, la reconnaissance des chants pour lesquels les sujets n'ont pas été entraînés survient plus tardivement dans des régions de plus bas niveau. J'ai ensuite étudié les mécanismes impliqués dans la reconnaissance et non reconnaissance de sons appartenant à une autre catégorie, .es battements de coeur. L'analyse des sources neuronales a montre que certaines régions du réseau sémantique lié à l'expertise acquise sont recrutées de maniere différente en fonction de la reconnaissance ou non reconnaissance du son La non reconnaissance des sons recrute des régions de plus bas niveau. La discrimination des bruits cardiaques est une tâche difficile et nécessite une écoute continue du son. J'ai étudié l'influence des réponses comportementales sur les effets de répétitions. L'analyse des sources neuronales a montré que la reconnaissance ou non reconnaissance des sons induisent des effets de repétition différents dans des régions situées en dehors des aires du réseau sémantique. Ainsi, les sons acquièrent un sens grâce à l'entraînement. Leur représentation corticale implique principalement un réseau d'aires cérébrales situé dans l'hémisphère gauche, dont l'activité est optimisée avec l'acquisition d'un certain niveau d'expertise, ainsi que d'autres régions qui ne sont pas liée au traitement de l'information sémantique. L'activité de ce réseau sémantique survient plus rapidemement que la prédiction par le modèle de la hiérarchie temporelle.
Resumo:
La sclérose en plaques (SEP) est une maladie démyélinisante du système nerveux central (SNC) provoquant des pertes motrices, sensitives et cognitives. La SEP se déclare chez le jeune adulte ayant des prédispositions génétiques, mais semble induite, par des facteurs environnementaux. La SEP touche principalement les femmes et sa prévalence dans les zones à haut risque, tel que la Suisse, est de 0.1%. Bien que son étiologie exacte reste méconnue, nous savons que la maladie est médiée par des lymphocytes T autoréactifs périphériques, qui infiltrent le SNC où ils activent d'autres cellules immunitaires ainsi que les cellules du SNC elles-mêmes, créant un foyer inflammatoire, qui va attaquer et finir par tuer les oligodendrocytes et les neurones. Les épisodes inflammatoires sont entrecoupés par des phases de rémission associées à une guérison partielle des lésions. Cette première phase de la maladie, comprenant des épisodes inflammatoires et de rémissions est appelé SEP récurrente-rémittente (SEP-RR) et touche 90% des patients. Elle évolue, dans deux-tiers des cas, vers une SEP secondaire progressive (SEP-SP), qui est caractérisée par une progression constante de la maladie, associée à une réduction de l'inflammation mais une augmentation de la neurodégénérescence. Les patients souffrants de SEP primaire progressive (SEP-PP) développent directement les symptômes de la phase progressive de la maladie. Les thérapies disponibles ont considérablement amélioré l'évolution de la maladie des patients SEP-RR, en agissant sur une diminution de la réponse immunitaire et donc de l'inflammation. Cependant, ces traitements sont inefficaces chez les patients SEP-SP et SEP-PP, n'agissant pas sur la neurodégénérescence. IL-22, une cytokine sécrétée notoirement par les cellules Th17, a été associée à la SEP en contribuant à la perméabilisation de la barrière hémato-encéphalique et à l'inflammation du SNC, qui sont des étapes clés de la pathogenèse de la maladie. En outre, le gène codant pour un inhibiteur puissant d'IL- 22, 'IL-22 binding protein' (IL-22BP), a été démontré comme un facteur de risque de la SEP. Ces indices nous ont poussés à nous intéresser de plus près au rôle de l'IL-22 dans la SEP. Nous avons pu montrer qu'IL-22 et IL-22BP étaient augmentées dans le sang des patients SEP par rapport à des sujets sains. Nous avons trouvé qu'IL-22 cible spécifiquement les astrocytes dans le SNC et que son récepteur est particulièrement exprimé dans les lésions des patient SEP. Contre toute attente, nous avons pu montrer que l'IL-22 semble soutenir la survie des astrocytes. Cette découverte, suggérant qu'IL-22 serait protecteur pour le SNC et pour la SEP, confirme de récentes publications et ouvre la voie à de potentielles applications thérapeutiques. En parallèle, dans le but de mieux comprendre l'immunopathogenèse de la SEP, nous avons développé les techniques de culture de cellules souches pluripotentes induites (iPSC). Nos iPSC sont dérivées du sang des donneurs et acquièrent toutes les propriétés des cellules souches embryonnaires après induction. Les iPSC peuvent ensuite être différenciées en différents types de cellules, dont les cellules du SNC. Nous avons ainsi pu obtenir avec succès des neurones, dérivés de cellules du sang, en passant par le stade des iPSC. La prochaine étape consiste à générer des cultures d'astrocytes et d'oligodendrocytes et ainsi obtenir les principales cellules du SNC, le but étant de former de véritables 'cerveaux-en-culture'. Cet outil semble particulièrement adapté à l'étude de l'activité de diverses molécules sur les cellules du SNC, comme par exemple l'IL-22 et d'autres molécules ayant un potentiel intérêt thérapeutique au niveau du SNC. Le but ultime étant de développer des co-cultures de cellules du SNC avec des cellules immunitaires autologues, de patients SEP et de sujets sains, afin de mettre en évidence l'attaque des cellules du SNC par des leucocytes autoréactifs. Ce projet prospectif a permis d'accroître nos connaissance sur des aspects immunitaires de la SEP et à pour but de mieux comprendre l'immunopathogenèse de la SEP afin d'élaborer de nouvelles stratégies thérapeutiques. -- La sclérose en plaques est une maladie auto-inflammatoire du système nerveux central conduisant à la destruction de la myéline, indispensable à la conduction nerveuse, et finalement à la mort des neurones eux-mêmes. Cela a pour conséquence des pertes motrices, sensorielles et cognitives, qui ont tendance à s'aggraver au fil de la maladie. Elle se déclare chez le jeune adulte, entre l'âge de 20 et 40 ans, et prédomine chez la femme. En Suisse, environ une personne sur l'OOO est atteinte de sclérose en plaques. Les causes exactes de cette maladie, qui incluent des facteurs génétiques et environnementaux, sont encore mal connues. Des traitements de plus en plus efficaces ont été développés ces dernières années et ont permis de drastiquement améliorer l'évolution de la maladie chez les patients atteints de sclérose en plaques. Cependant, ces traitements ne sont efficaces que sur certaines catégories de patients et peuvent engendrer de lourds effets secondaires. Ces thérapies agissent presque exclusivement sur les cellules du système immunitaire en les désactivant partiellement, mais pas sur les cellules nerveuses, qui sont pourtant celles qui conditionnent le devenir du patient. Le développement de médicaments protégeant ou permettant la régénération des cellules du système nerveux central est donc primordial. L'étude de l'interleukine-22 nous a permis de montrer que cette cytokine ('hormone' du système immunitaire) pouvait cibler spécifiquement les astrocytes, des cellules gliales qui jouent un rôle central dans le maintien de l'équilibre du système nerveux central. Nos recherches ont montré que cette interleukine-22 permettrait une meilleure survie des astrocytes durant la phase aiguë de la maladie et aurait aussi des propriétés neuroprotectrices. En parallèle, nous sommes en train de développer un nouveau modèle in vitro d'étude de la sclérose en plaques grâce à la technologie des cellules souches pluripotentes induites. Ces cellules souches sont induites à partir de cellules du sang du donneur et acquièrent toutes les caractéristiques des cellules souches embryonnaires présentes dans un organisme en formation. Ainsi, ces cellules souches pluripotentes ont, par exemple, la capacité de se différencier en cellules du système nerveux central. Nous avons pu, de cette manière, obtenir des neurones. Le but ultime serait de pouvoir reconstituer une ébauche de cerveau in vitro, en cultivant ensemble différents types de cellules du système nerveux central, afin d'y réaliser des expériences avec des cellules immunitaires du même donneur. Ces travaux ont pour but d'améliorer notre compréhension de la pathogenèse de la sclérose en plaques et de permettre le développement de nouvelles stratégies thérapeutiques. --Multiple sclerosis (MS) is a demyelinating disease of the central nervous system leading to cognitive, sensitive and motor disabilities. MS occurs in genetically predisposed young adults with probable environmental triggers. MS affects predominantly women and its prevalence in high risk area such as Switzerland is 0.1%. Though its exact aetiology remains undetermined, we know that autoreactive T cells from de periphery are reactivated and recruited into the central nervous system (CNS) were they further activate other immune cells and resident cells, creating inflammatory foci, where oligodendrocytes and neurons are insulted and, eventually, killed. Inflammatory episodes, called relapses, are interspersed with remission phases where partial recovery of the lesions occurs. This first phase of the disease, occurring in 90% of the patients, is called relapsing-remitting MS (RR-MS) and is leading, in two-third of the cases, to secondary-progressive MS (SP-MS), where there is a continuous steady progression of the disease, associated with reduced inflammation but increased neurodegeneration. Primary-progressive MS (PP-MS) patients experience directly this progressive phase of the disease. Whereas disease modifying therapies have dramatically ameliorated the disease course of RR-MS patients by dampening immunity and, in turn, inflammation, treatments of SP-MS and PP-MS patients, who suffer primarily from the neurodegenerative aspect of the disease, are still inexistent. IL-22, a pro-inflammatory Th17 cell cytokine, has been associated with MS by participating to blood-brain barrier infiltration and CNS inflammation, which are crucial steps in MS pathogenesis. In addition, the gene coding for IL-22 binding protein (IL-22BP), which is a potent secreted IL-22 inhibitor, has been associated with MS risk. These findings call for further investigation on the role of IL-22 in MS. We detected increased IL-22 and IL-22BP in the blood of MS patients as compared to healthy controls. Acting exclusively on cells of nonhematopoietic origin, we found that IL-22 targets specifically astrocytes in the CNS and that its receptor is highly expressed in the lesion of MS patients. Unexpectedly, we found that IL-22 seems to promote survival of astrocytes. This finding, suggesting that IL-22 might be protective for the CNS in the context of MS, is consistent with recent publications and might open putative therapeutic applications at the CNS level. In parallel, with the aim of better understanding the immunopathogenesis of MS, we developed induced pluripotent stem cell (iPSC) techniques. IPSC are derived from blood cells of the donors and bear embryonic stem cell properties. IPSC can be differentiated into various cell types including CNS cells. We successfully obtained neurons derived from the donor blood cells, through iPSC. We further aim at developing astrocytes and oligodendrocytes cultures to recreate a 'brain-in-a-dish'. This would be a powerful tool to test the activity of various compounds on CNS cells, including IL-22 and other putative neuroprotective drugs. Ultimately, the goal is to develop co-cultures of CNS cells with autologous immune cells of MS patients as well as healthy controls to try to expose evidence of CNS cells targeted by autoreactive leukocytes. This prospective project has increased our knowledge of immune aspects of MS and further aims at better understanding the immunopathology of MS in order to pave the way to the elaboration of new therapeutic strategies.
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.
Resumo:
La fin de la mortalité due au vieillissement biologique est annoncée, et avec elle de grands bouleversements de la condition humaine, traditionnellement caractérisée par sa finitude. Fantasme futuriste ou engagement concret, le transhumanisme est désigné comme la bannière sous laquelle des biologistes, philosophes, gérontologues ou entrepreneurs préparent cette révolution. Cet article considère le transhumanisme avant tout comme un mouvement d'idées, dont les militants promeuvent un futur de l'humanité transformé par la technologie. Il montre ensuite que l'épistémologie mobilisée par les transhumanistes dans leur recherche de l'immortalité est guidée par une curiosité avide, mais reste fondée sur un savoir cumulatif intrinsèquement lacunaire. Il propose enfin d'envisager le transhumanisme non comme un fantasme de la toute-puissance humaine, mais comme une relation de confiance fragile avec des objets techniques retardataires, traces d'un futur récalcitrant.
Resumo:
Résumé: L'impact de la maladie d'Alzheimer (MA) est dévastateur pour la vie quotidienne de la personne affectée, avec perte progressive de la mémoire et d'autres facultés cognitives jusqu'à la démence. Il n'existe toujours pas de traitement contre cette maladie et il y a aussi une grande incertitude sur le diagnostic des premiers stades de la MA. La signature anatomique de la MA, en particulier l'atrophie du lobe temporal moyen (LTM) mesurée avec la neuroimagerie, peut être utilisée comme un biomarqueur précoce, in vivo, des premiers stades de la MA. Toutefois, malgré le rôle évident du LMT dans les processus de la mémoire, nous savons que les modèles anatomiques prédictifs de la MA basés seulement sur des mesures d'atrophie du LTM n'expliquent pas tous les cas cliniques. Au cours de ma thèse, j'ai conduit trois projets pour comprendre l'anatomie et le fonctionnement du LMT dans (1) les processus de la maladie et dans (2) les processus de mémoire ainsi que (3) ceux de l'apprentissage. Je me suis intéressée à une population avec déficit cognitif léger (« Mild Cognitive Impairment », MCI), à risque pour la MA. Le but du premier projet était de tester l'hypothèse que des facteurs, autres que ceux cognitifs, tels que les traits de personnalité peuvent expliquer les différences interindividuelles dans le LTM. De plus, la diversité phénotypique des manifestations précliniques de la MA provient aussi d'une connaissance limitée des processus de mémoire et d'apprentissage dans le cerveau sain. L'objectif du deuxième projet porte sur l'investigation des sous-régions du LTM, et plus particulièrement de leur contribution dans différentes composantes de la mémoire de reconnaissance chez le sujet sain. Pour étudier cela, j'ai utilisé une nouvelle méthode multivariée ainsi que l'IRM à haute résolution pour tester la contribution de ces sous-régions dans les processus de familiarité (« ou Know ») et de remémoration (ou « Recollection »). Finalement, l'objectif du troisième projet était de tester la contribution du LTM en tant que système de mémoire dans l'apprentissage et l'interaction dynamique entre différents systèmes de mémoire durant l'apprentissage. Les résultats du premier projet montrent que, en plus du déficit cognitif observé dans une population avec MCI, les traits de personnalité peuvent expliquer les différences interindividuelles du LTM ; notamment avec une plus grande contribution du neuroticisme liée à une vulnérabilité au stress et à la dépression. Mon étude a permis d'identifier un pattern d'anormalité anatomique dans le LTM associé à la personnalité avec des mesures de volume et de diffusion moyenne du tissu. Ce pattern est caractérisé par une asymétrie droite-gauche du LTM et un gradient antéro-postérieur dans le LTM. J'ai interprété ce résultat par des propriétés tissulaires et neurochimiques différemment sensibles au stress. Les résultats de mon deuxième projet ont contribué au débat actuel sur la contribution des sous-régions du LTM dans les processus de familiarité et de remémoration. Utilisant une nouvelle méthode multivariée, les résultats supportent premièrement une dissociation des sous-régions associées aux différentes composantes de la mémoire. L'hippocampe est le plus associé à la mémoire de type remémoration et le cortex parahippocampique, à la mémoire de type familiarité. Deuxièmement, l'activation correspondant à la trace mnésique pour chaque type de mémoire est caractérisée par une distribution spatiale distincte. La représentation neuronale spécifique, « sparse-distributed», associée à la mémoire de remémoration dans l'hippocampe serait la meilleure manière d'encoder rapidement des souvenirs détaillés sans interférer les souvenirs précédemment stockés. Dans mon troisième projet, j'ai mis en place une tâche d'apprentissage en IRM fonctionnelle pour étudier les processus d'apprentissage d'associations probabilistes basé sur le feedback/récompense. Cette étude m'a permis de mettre en évidence le rôle du LTM dans l'apprentissage et l'interaction entre différents systèmes de mémoire comme la mémoire procédurale, perceptuelle ou d'amorçage et la mémoire de travail. Nous avons trouvé des activations dans le LTM correspondant à un processus de mémoire épisodique; les ganglions de la base (GB), à la mémoire procédurale et la récompense; le cortex occipito-temporal (OT), à la mémoire de représentation perceptive ou l'amorçage et le cortex préfrontal, à la mémoire de travail. Nous avons également observé que ces régions peuvent interagir; le type de relation entre le LTM et les GB a été interprété comme une compétition, ce qui a déjà été reporté dans des études récentes. De plus, avec un modèle dynamique causal, j'ai démontré l'existence d'une connectivité effective entre des régions. Elle se caractérise par une influence causale de type « top-down » venant de régions corticales associées avec des processus de plus haut niveau venant du cortex préfrontal sur des régions corticales plus primaires comme le OT cortex. Cette influence diminue au cours du de l'apprentissage; cela pourrait correspondre à un mécanisme de diminution de l'erreur de prédiction. Mon interprétation est que cela est à l'origine de la connaissance sémantique. J'ai également montré que les choix du sujet et l'activation cérébrale associée sont influencés par les traits de personnalité et des états affectifs négatifs. Les résultats de cette thèse m'ont amenée à proposer (1) un modèle expliquant les mécanismes possibles liés à l'influence de la personnalité sur le LTM dans une population avec MCI, (2) une dissociation des sous-régions du LTM dans différents types de mémoire et une représentation neuronale spécifique à ces régions. Cela pourrait être une piste pour résoudre les débats actuels sur la mémoire de reconnaissance. Finalement, (3) le LTM est aussi un système de mémoire impliqué dans l'apprentissage et qui peut interagir avec les GB par une compétition. Nous avons aussi mis en évidence une interaction dynamique de type « top -down » et « bottom-up » entre le cortex préfrontal et le cortex OT. En conclusion, les résultats peuvent donner des indices afin de mieux comprendre certains dysfonctionnements de la mémoire liés à l'âge et la maladie d'Alzheimer ainsi qu'à améliorer le développement de traitement. Abstract: The impact of Alzheimer's disease is devastating for the daily life of the affected patients, with progressive loss of memory and other cognitive skills until dementia. We still lack disease modifying treatment and there is also a great amount of uncertainty regarding the accuracy of diagnostic classification in the early stages of AD. The anatomical signature of AD, in particular the medial temporal lobe (MTL) atrophy measured with neuroimaging, can be used as an early in vivo biomarker in early stages of AD. However, despite the evident role of MTL in memory, we know that the derived predictive anatomical model based only on measures of brain atrophy in MTL does not explain all clinical cases. Throughout my thesis, I have conducted three projects to understand the anatomy and the functioning of MTL on (1) disease's progression, (2) memory process and (3) learning process. I was interested in a population with mild cognitive impairment (MCI), at risk for AD. The objective of the first project was to test the hypothesis that factors, other than the cognitive ones, such as the personality traits, can explain inter-individual differences in the MTL. Moreover, the phenotypic diversity in the manifestations of preclinical AD arises also from the limited knowledge of memory and learning processes in healthy brain. The objective of the second project concerns the investigation of sub-regions of the MTL, and more particularly their contributions in the different components of recognition memory in healthy subjects. To study that, I have used a new multivariate method as well as MRI at high resolution to test the contribution of those sub-regions in the processes of familiarity and recollection. Finally, the objective of the third project was to test the contribution of the MTL as a memory system in learning and the dynamic interaction between memory systems during learning. The results of the first project show that, beyond cognitive state of impairment observed in the population with MCI, the personality traits can explain the inter-individual differences in the MTL; notably with a higher contribution of neuroticism linked to proneness to stress and depression. My study has allowed identifying a pattern of anatomical abnormality in the MTL related to personality with measures of volume and mean diffusion of the tissue. That pattern is characterized by right-left asymmetry in MTL and an anterior to posterior gradient within MTL. I have interpreted that result by tissue and neurochemical properties differently sensitive to stress. Results of my second project have contributed to the actual debate on the contribution of MTL sub-regions in the processes of familiarity and recollection. Using a new multivariate method, the results support firstly a dissociation of the subregions associated with different memory components. The hippocampus was mostly associated with recollection and the surrounding parahippocampal cortex, with familiarity type of memory. Secondly, the activation corresponding to the mensic trace for each type of memory is characterized by a distinct spatial distribution. The specific neuronal representation, "sparse-distributed", associated with recollection in the hippocampus would be the best way to rapidly encode detailed memories without overwriting previously stored memories. In the third project, I have created a learning task with functional MRI to sudy the processes of learning of probabilistic associations based on feedback/reward. That study allowed me to highlight the role of the MTL in learning and the interaction between different memory systems such as the procedural memory, the perceptual memory or priming and the working memory. We have found activations in the MTL corresponding to a process of episodic memory; the basal ganglia (BG), to a procedural memory and reward; the occipito-temporal (OT) cortex, to a perceptive memory or priming and the prefrontal cortex, to working memory. We have also observed that those regions can interact; the relation type between the MTL and the BG has been interpreted as a competition. In addition, with a dynamic causal model, I have demonstrated a "top-down" influence from cortical regions associated with high level cortical area such as the prefrontal cortex on lower level cortical regions such as the OT cortex. That influence decreases during learning; that could correspond to a mechanism linked to a diminution of prediction error. My interpretation is that this is at the origin of the semantic knowledge. I have also shown that the subject's choice and the associated brain activation are influenced by personality traits and negative affects. Overall results of this thesis have brought me to propose (1) a model explaining the possible mechanism linked to the influence of personality on the MTL in a population with MCI, (2) a dissociation of MTL sub-regions in different memory types and a neuronal representation specific to each region. This could be a cue to resolve the actual debates on recognition memory. Finally, (3) the MTL is also a system involved in learning and that can interact with the BG by a competition. We have also shown a dynamic interaction of « top -down » and « bottom-up » types between the pre-frontal cortex and the OT cortex. In conclusion, the results could give cues to better understand some memory dysfunctions in aging and Alzheimer's disease and to improve development of treatment.
Resumo:
We all make decisions of varying levels of importance every day. Because making a decision implies that there are alternative choices to be considered, almost all decision involves some conflicts or dissatisfaction. Traditional economic models esteem that a person must weight the positive and negative outcomes of each option, and based on all these inferences, determines which option is the best for that particular situation. However, individuals rather act as irrational agents and tend to deviate from these rational choices. They somewhat evaluate the outcomes' subjective value, namely, when they face a risky choice leading to losses, people are inclined to have some preference for risk over certainty, while when facing a risky choice leading to gains, people often avoid to take risks and choose the most certain option. Yet, it is assumed that decision making is balanced between deliberative and emotional components. Distinct neural regions underpin these factors: the deliberative pathway that corresponds to executive functions, implies the activation of the prefrontal cortex, while the emotional pathway tends to activate the limbic system. These circuits appear to be altered in individuals with ADHD, and result, amongst others, in impaired decision making capacities. Their impulsive and inattentive behaviors are likely to be the cause of their irrational attitude towards risk taking. Still, a possible solution is to administrate these individuals a drug treatment, with the knowledge that it might have several side effects. However, an alternative treatment that relies on cognitive rehabilitation might be appropriate. This project was therefore aimed at investigate whether an intensive working memory training could have a spillover effect on decision making in adults with ADHD and in age-matched healthy controls. We designed a decision making task where the participants had to select an amount to gamble with the chance of 1/3 to win four times the chosen amount, while in the other cases they could loose their investment. Their performances were recorded using electroencephalography prior and after a one-month Dual N-Back training and the possible near and far transfer effects were investigated. Overall, we found that the performance during the gambling task was modulated by personality factors and by the importance of the symptoms at the pretest session. At posttest, we found that all individuals demonstrated an improvement on the Dual N-Back and on similar untrained dimensions. In addition, we discovered that not only the adults with ADHD showed a stable decrease of the symptomatology, as evaluated by the CAARS inventory, but this reduction was also detected in the control samples. In addition, Event-Related Potential (ERP) data are in favor of an change within prefrontal and parietal cortices. These results suggest that cognitive remediation can be effective in adults with ADHD, and in healthy controls. An important complement of this work would be the examination of the data in regard to the attentional networks, which could empower the fact that complex programs covering the remediation of several executive functions' dimensions is not required, a unique working memory training can be sufficient. -- Nous prenons tous chaque jour des décisions ayant des niveaux d'importance variables. Toutes les décisions ont une composante conflictuelle et d'insatisfaction, car prendre une décision implique qu'il y ait des choix alternatifs à considérer. Les modèles économiques traditionnels estiment qu'une personne doit peser les conséquences positives et négatives de chaque option et en se basant sur ces inférences, détermine quelle option est la meilleure dans une situation particulière. Cependant, les individus peuvent dévier de ces choix rationnels. Ils évaluent plutôt les valeur subjective des résultats, c'est-à-dire que lorsqu'ils sont face à un choix risqué pouvant les mener à des pertes, les gens ont tendance à avoir des préférences pour le risque à la place de la certitude, tandis que lorsqu'ils sont face à un choix risqué pouvant les conduire à un gain, ils évitent de prendre des risques et choisissent l'option la plus su^re. De nos jours, il est considéré que la prise de décision est balancée entre des composantes délibératives et émotionnelles. Ces facteurs sont sous-tendus par des régions neurales distinctes: le chemin délibératif, correspondant aux fonctions exécutives, implique l'activation du cortex préfrontal, tandis que le chemin émotionnel active le système limbique. Ces circuits semblent être dysfonctionnels chez les individus ayant un TDAH, et résulte, entre autres, en des capacités de prise de décision altérées. Leurs comportements impulsifs et inattentifs sont probablement la cause de ces attitudes irrationnelles face au risque. Cependant, une solution possible est de leur administrer un traitement médicamenteux, en prenant en compte les potentiels effets secondaires. Un traitement alternatif se reposant sur une réhabilitation cognitive pourrait être appropriée. Le but de ce projet est donc de déterminer si un entrainement intensif de la mémoire de travail peut avoir un effet sur la prise de décision chez des adultes ayant un TDAH et chez des contrôles sains du même âge. Nous avons conçu une tâche de prise de décision dans laquelle les participants devaient sélectionner un montant à jouer en ayant une chance sur trois de gagner quatre fois le montant choisi, alors que dans l'autre cas, ils pouvaient perdre leur investissement. Leurs performances ont été enregistrées en utilisant l'électroencéphalographie avant et après un entrainement d'un mois au Dual N-Back, et nous avons étudié les possibles effets de transfert. Dans l'ensemble, nous avons trouvé au pré-test que les performances au cours du jeu d'argent étaient modulées par les facteurs de personnalité, et par le degré des sympt^omes. Au post-test, nous avons non seulement trouvé que les adultes ayant un TDAH montraient une diminutions stable des symptômes, qui étaient évalués par le questionnaire du CAARS, mais que cette réduction était également perçue dans l'échantillon des contrôles. Les rsultats expérimentaux mesurés à l'aide de l'éléctroencéphalographie suggèrent un changement dans les cortex préfrontaux et pariétaux. Ces résultats suggèrent que la remédiation cognitive est efficace chez les adultes ayant un TDAH, mais produit aussi un effet chez les contrôles sains. Un complément important de ce travail pourrait examiner les données sur l'attention, qui pourraient renforcer l'idée qu'il n'est pas nécessaire d'utiliser des programmes complexes englobant la remédiation de plusieurs dimensions des fonctions exécutives, un simple entraiment de la mémoire de travail devrait suffire.
Resumo:
Les tâches nécessitant des manipulations et des transformations de figures géométriques et de formes, comme les tâches de rotation mentale, donnent lieu à des différences de performance entre hommes et femmes qui restent intrigantes. Plusieurs hypothèses ont été proposées pour expliquer ces différences. La plus récurrente porte sur les différences de stratégie globale vs locale utilisées pour traiter l'information. Bien que cette conjecture soit intéressante, elle reste difficile à opérationnaliser car elle englobe tous les mécanismes cognitifs (acquisition, conservation et récupération de l'information). Ce travail prend la forme d'un retour aux sources dans la mesure où il se base sur des recherches anciennes qui ont montré que les hommes perçoivent significativement mieux que les femmes la verticale et l'horizontale. Il teste l'hypothèse selon laquelle les hommes, comparativement aux femmes, présentent une plus forte indépendance au champ perceptif visuel et sont donc plus susceptibles d'utiliser la verticalité et l'horizontalité pour résoudre une tâche de rotation mentale. Une première série d'expériences s'est penchée sur la perception spatiale pour évaluer son impact sur la résolution d'une tâche impliquant la rotation mentale. Les résultats ont montré que seuls les hommes se référaient à la verticalité et à l'horizontalité pour résoudre la tâche. Une seconde série d'expériences ont investigué l'effet de la présence, ou absence, d'axes directionnels directement liés à une tâche de rotation mentale. Elles ont été menées également en environnement réel afin d'évaluer comment le déplacement actif ou passif, correspondant à un changement de perspective en lieu et place d'une rotation mentale, module la performance des hommes et des femmes. Les résultats n'ont pas mis en évidence de différence sexuelle. Notre hypothèse est vérifiée puisque c'est uniquement lorsque la tâche ne présente pas d'axes orthogonaux évidents mais implicites que seuls les hommes, plus indépendants au champ perceptif visuel que les femmes, utilisent la perception de la verticalité et de l'horizontalité pour améliorer leur compétence en rotation mentale. -- Tasks that require manipulation and transformation of geometric shapes and forms, like tasks of mental rotation and give rise to differences in performance between men and women, remain intriguing. Several hypotheses have been proposed to explain these differences. The most recurring hypothesis addresses differences in global versus local strategies for processing information. While this conjecture is interesting, it remains difficult to study because it encompasses all the cognitive mechanisms (acquisition, retention and output). This work returns to the sources, which are based on earlier research that shows that men are significantly better than women at perceiving verticality and horizontality. It tests the hypothesis according to which men, as compared to women, exhibit a greater independence on the perceptive visual field, and therefore are more susceptible to utilizing the verticality and the horizontality to solve a mental rotation task. A first set of experiments examined spatial perception in order to assess its impact on the resolution of a task involving mental rotation. The results showed that only men referred to the verticality and the horizontality to solve the task. A second series of experiments investigated the effect of a presence, or absence of directional axes directed tied to the task of mental rotation. They were also conducted in a real world environment to evaluate how the active or passive displacement, corresponding to a change in perspective instead of a mental rotation, modulates the performance of men and women. The results did not show sex differences. Our hypothesis is verified: it is only when the task presents no obvious, but implicit orthogonal axes that men, who exhibit a greater independence on the perceptive visual field than women, use the perception of verticality and horizontality to improve their competence in mental rotation.
Resumo:
Problématique : La douleur aux soins intensifs adultes est un problème majeur auquel l'équipe soignante est confrontée quotidiennement. Elle nécessite un traitement adéquat et, pour ce faire, une évaluation systématique et précise est requise. Les patients hospitalisés aux soins intensifs sont vulnérables de par leurs pathologies et les multiples stimulations douloureuses auxquelles ils sont exposés. L'évaluation de la douleur est rendue complexe par le fait qu'ils ne peuvent pas la communiquer verbalement. L'utilisation d'échelles d'évaluation de la douleur est recommandée, mais les scores obtenus doivent être interprétés et contextualisés. Evaluer la douleur chez ce type de patient demande aux infirmières des connaissances et compétences élevées, à même d'être mobilisées lors d'un processus complexe lié au raisonnement clinique. But : l'objectif de cette étude descriptive observationnelle est de décrire les indicateurs influençant le raisonnement clinique de l'infirmière1 experte lors de l'évaluation de la douleur chez les patients ventilés, sédatés et non communicants aux soins intensifs. Les résultats produisent une meilleure compréhension de l'évaluation et de la gestion de la douleur en pratique et, finalement, participent à l'amélioration de la qualité de son évaluation et de sa gestion. Méthode : un échantillon de convenance de sept infirmières expertes travaillant dans une unité de soins intensifs d'un hôpital universitaire de Suisse Romande a été constitué pour cette étude. Les données ont été récoltées en situation réelle lors de l'évaluation de la douleur de sept patients en utilisant la méthode du think aloud, par une observation non participative et par un entretien semistructuré. Les données ont été analysées en utilisant une méthode d'analyse de contenu déductive sur la base d'un modèle de raisonnement clinique, comprenant les suivantes: le contexte, la situation du patient, la génération d'hypothèses, les actions infirmières et l'évaluation de l'action. Résultats : la moyenne d'expérience des infirmières participantes est de 15 ans (ÉT 4.5) en soins et de 7.85 ans (ÉT 3.1) en soins intensifs. Sept patients étaient ventilés, sédatés et non communicants ayant une moyenne de score APACHE II2 de 19. Les résultats montrent que les infirmières se basent principalement sur des indicateurs physiologiques pour évaluer la douleur. Elles cherchent à prévenir la douleur pour le patient. Elles se réfèrent régulièrement à des situations déjà vécues (pattern). Elles mobilisent leurs connaissances pour pondérer l'agitation liée à la douleur ou à d'autres causes en générant des hypothèses, puis réalisent un test antalgique pour confirmer ou infirmer l'hypothèse retenue. Conclusion : le contexte clinique joue un rôle important dans le raisonnement clinique de l'infirmière et la gestion de la douleur. Pour faciliter cette tâche, l'évaluation de la douleur doit être combinée avec l'évaluation de la situation clinique du patient et du niveau de sédation des patients de soins intensifs.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Cet article présente les caractéristiques de l'écriture d'une personne atteinte de la maladie de Parkinson, ainsi que l'influence des traitements de la maladie sur ces caractéristiques. L'expert est ainsi amené à mieux connaître cette source de variation de l'écriture, et vise à l'aider à évaluer les résultats de ses observations lorsqu'il fait face à un cas impliquant des écritures de parkinsoniens. Puisque les écritures imitées peuvent présenter des caractéristiques similaires à celles des écritures pathologiques, il est important de connaître les signes qui permettent de les distinguer. L'écriture des parkinsoniens peut notamment présenter une diminution de la taille des lettres, connue sous le nom de "micrographie", des tremblements ainsi que des formes indistinctes des lettres, et un alignement ondulatoire des mots. Les parkinsoniens écrivent moins vite et avec une accélération et une fluidité réduites. Ils ont tendance à augmenter la durée de l'exécution de leurs traits. Le traitement au moyen de médicaments ou par Deep Brain Stimulation (DBS) peut permettre aux parkinsoniens d'améliorer leur performance et d'atteindre une restauration partielle de l'exécution des mouvements séquentiels.