34 resultados para Résonance magnétique nucléaire fonctionnelle RMNf
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Ce mémoire est divisé en quatre chapitres. D’abord, une introduction initie le lecteur au domaine des neurosciences. Ensuite, le chapitre 1 décrit les étapes de la dissection virtuelle par tractographie, à partir du phénomène physique de la diffusion jusqu’aux mesures statistiques des structures de la matière blanche. Le chapitre 2 présentera une nouvelle méthode d’assurance qualité, basée sur l’analyse volumique des faisceaux de la matière blanche, la contribution principale de ce mémoire. Finalement, la conclusion contient une discussion des problématiques non résolues ainsi que des perspectives d’avenir pour la tractographie.
Resumo:
Résumé : c-Myc est un facteur de transcription (FT) dont les niveaux cellulaires sont dérégulés dans la majorité des cancers chez l’homme. En hétérodimère avec son partenaire obligatoire Max, c-Myc lie préférentiellement les séquences E-Box (CACGTG) et cause l’expression de gènes impliqués dans la biosynthèse des protéines et des ARNs, dans le métabolisme et dans la prolifération cellulaire. Il est maintenant bien connu que c-Myc exerce aussi son potentiel mitogène en liant et inhibant différents FTs impliqués dans l’expression de gènes cytostatiques. Entre autres, c-Myc est en mesure d’inhiber Miz-1, un FT comportant 13 doigts de zinc de type Cys2-His2 (ZFs) impliqué dans l’expression de plusieurs gènes régulateurs du cycle cellulaire comprenant les inhibiteurs de CDK p15[indice supérieur INK4], p21[indice supérieur CIP1] et p57[indice supérieur KIP2]. Plus récemment, il fut démontré qu’en contrepartie, Miz-1 est aussi en mesure de renverser les fonctions activatrices de c-Myc et de prévenir la prolifération de cellules cancéreuses dépendantes de c-Myc. Ces différentes observations ont mené à la suggestion de l’hypothèse intéressante que la balance des niveaux de Miz-1 et c-Myc pourrait dicter le destin de la cellule et a permis d’établir Miz-1 comme nouvelle cible potentielle pour le développement d’agents anti-cancéreux. Malgré le fait que ces deux protéines semblent centrales à la régulation du cycle cellulaire, les mécanismes moléculaires leur permettant de s’inhiber mutuellement ainsi que les déterminants moléculaires permettant leur association spécifique demeurent assez peu documentés pour le moment. De plus, la biologie structurale de Miz-1 demeure à être explorée puisque qu’aucune structure de ses 13 ZFs, essentiels à sa liaison à l’ADN, n’a été déterminée pour l’instant. Les travaux réalisés dans le cadre cette thèse visent la caractérisation structurale et biophysique de Miz-1 dans le contexte de la répression génique causée par le complexe c-Myc/Miz-1. Nous présentons des résultats d’éxpériences in vitro démontrant que Miz-1 interagit avec c-Myc via un domaine contenu entre ses ZFs 12 et 13. De plus, nous démontrons que Miz-1 et Max sont en compétition pour la liaison de c-Myc. Ces résultats suggèrent pour la permière fois que Miz-1 inhibe les activités de c-Myc en prévenant son interaction avec son partenaire obligatoire Max. De plus, ils laissent présager que que Miz-1 pourrait servir de référence pour le développement d’inhibiteurs peptidiques de c-Myc. Finalement, nous avons réalisé la caractérisation structurale et dynamique des ZFs 1 à 4 et 8 à 10 de Miz-1 et avons évalué leur potentiel de liaison à l’ADN. Les résultats obtenus, couplés à des analyses bio-informatiques, nous permettent de suggérer un modèle détaillé pour la liaison spécifique de Miz-1 à son ADN consensus récemment identifié.
Resumo:
Résumé : L'imagerie par résonance magnétique pondérée en diffusion est une modalité unique sensible aux mouvements microscopiques des molécules d'eau dans les tissus biologiques. Il est possible d'utiliser les caractéristiques de ce mouvement pour inférer la structure macroscopique des faisceaux de la matière blanche du cerveau. La technique, appelée tractographie, est devenue l'outil de choix pour étudier cette structure de façon non invasive. Par exemple, la tractographie est utilisée en planification neurochirurgicale et pour le suivi du développement de maladies neurodégénératives. Dans cette thèse, nous exposons certains des biais introduits lors de reconstructions par tractographie, et des méthodes sont proposées pour les réduire. D'abord, nous utilisons des connaissances anatomiques a priori pour orienter la reconstruction. Ainsi, nous montrons que l'information anatomique sur la nature des tissus permet d'estimer des faisceaux anatomiquement plausibles et de réduire les biais dans l'estimation de structures complexes de la matière blanche. Ensuite, nous utilisons des connaissances microstructurelles a priori dans la reconstruction, afin de permettre à la tractographie de suivre le mouvement des molécules d'eau non seulement le long des faisceaux, mais aussi dans des milieux microstructurels spécifiques. La tractographie peut ainsi distinguer différents faisceaux, réduire les erreurs de reconstruction et permettre l'étude de la microstructure le long de la matière blanche. Somme toute, nous montrons que l'utilisation de connaissances anatomiques et microstructurelles a priori, en tractographie, augmente l'exactitude des reconstructions de la matière blanche du cerveau.
Resumo:
En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.
Resumo:
Dans la dernière décennie, la robotique souple a connu un gain de popularité considérable. Elle est, de façon inhérente, sécuritaire pour les humains et l’environnement qui l’entourent. Grâce à sa faible rigidité, la robotique souple est idéale pour manipuler des objets fragiles et elle est en mesure de s’adapter à son environnement. Les caractéristiques uniques de la robotique souple font de cette technologie un tremplin vers la conception d’appareils médicaux novateurs, plus particulièrement pour des outils permettant le positionnement d’aiguilles dans le but de faire des interventions percutanées, notamment au niveau du foie. Toutefois, la souplesse de cette technologie induit, du même coup, quelques désagréments. Elle procure un comportement sécuritaire, mais entraîne aussi un manque de rigidité limitant les applications de la robotique souple. Sans une rigidité minimale, il est impossible d’accomplir des opérations repérables et précises. La robotique souple a en fait un compromis majeur entre la capacité de chargement et la plage d’utilisation. Pour utiliser cette technologie dans le domaine médical, il est primordial d’ajouter un système permettant de moduler la rigidité du système pour inhiber ce compromis. Couplée avec un système de freinage granulaire, la robotique souple semble comporter l’ensemble des caractéristiques permettant d’accomplir des interventions au foie. Cette étude tend à démontrer que couplée à un système modulant la rigidité, la robotique souple peut être utilisée pour accomplir des opérations d’une façon précise et repérable, tout en demeurant sécuritaire. Le positionneur d’aiguilles développé est 100 % compatible avec l’Imagerie à Résonance Magnétique (IRM). La plage d’insertion du système permet de rejoindre l’entièreté du foie (1500 cm³), tout en maintenant une rigidité suffisante (3 N/mm) et en étant aussi précis que l’outil d’imagerie utilisée (1 mm). L’approche hybride consistant à développer un système activé de façon souple couplée à un module régulant sa rigidité permet d’obtenir à la fois les avantages d’une robotique compliante (souple) et conventionnelle (dure).
Resumo:
Résumé : L’interaction entre la douleur et le système moteur est bien connue en clinique et en réadaptation. Il est sans surprise que la douleur est un phénomène considérablement invalidant, affectant la qualité de vie de ceux et celles qui en souffrent. Toutefois, les bases neurophysiologiques qui sous-tendent cette interaction demeurent, encore aujourd’hui, mal comprises. Le but de la présente étude était de mieux comprendre les mécanismes corticaux impliqués dans l’interaction entre la douleur et le système moteur. Pour ce faire, une douleur expérimentale a été induite à l’aide d’une crème à base de capsaïcine au niveau de l’avant-bras gauche des participants. L'effet de la douleur sur la force des projections corticospinales ainsi que sur l’activité cérébrale a été mesuré à l’aide de la stimulation magnétique transcrânienne (TMS) et de l’électroencéphalographie (EEG), respectivement. L’analyse des données EEG a permis de révéler qu'en présence de douleur aiguë, il y a une augmentation de l’activité cérébrale au niveau du cuneus central (fréquence têta), du cortex dorsolatéral préfrontal gauche (fréquence alpha) ainsi que du cuneus gauche et de l'insula droite (toutes deux fréquence bêta), lorsque comparée à la condition initiale (sans douleur). Également, les analyses démontrent une augmentation de l'activité du cortex moteur primaire droit en présence de douleur, mais seulement chez les participants qui présentaient simultanément une diminution de leur force de projections corticales (mesurée avec la TMS t=4,45, p<0,05). Ces participants ont également montré une plus grande connectivité entre M1 et le cuneus que les participants dont la douleur n’a pas affecté la force des projections corticospinales (t=3,58, p<0,05). Ces résultats suggèrent qu’une douleur expérimentale induit, chez certains individus, une altération au niveau des forces de projections corticomotrices. Les connexions entre M1 et le cuneus seraient possiblement impliquées dans la survenue de ces changements corticomoteurs.
Resumo:
Dans le cadre de ce mémoire, nous nous sommes intéressée au vocabulaire utilisé par la presse francophone, à savoir française et québécoise, lorsqu'elle traite d'un fait d'actualité internationale. L'objectif de la présente étude exploratoire est de vérifier si l'information diffusée par la presse écrite quotidienne au Québec, concernant le dossier nucléaire iranien, est différente de celle diffusée par la presse écrite quotidienne française. Cette vérification a été faite à partir d'un corpus de textes publiés par deux quotidiens québécois, La Presse et Le Devoir, et deux quotidiens français, Le Monde et Le Figaro. Le but de notre recherche était de procéder à l'analyse du vocabulaire employé par ces quatre quotidiens lorsqu'ils diffusent l'information touchant le dossier nucléaire iranien. Nous nous sommes intéressée à la sélection et à la distribution des mots-clés composant le discours de ces quotidiens diffusés au Québec et en France. Nous avions posé l'hypothèse suivante : l'information internationale diffusée au public québécois est différente de celle diffusée en France, et cette différence est perceptible par le vocabulaire employé. Pour considérer cette question de recherche, nous avons constitué un corpus composé de tous les articles publiés par deux quotidiens français, Le Figaro et Le Monde, et par deux quotidiens québécois, La Presse et Le Devoir traitant du dossier nucléaire iranien, entre le 14 et le 31 janvier 2006. Ces articles ont été soumis à une analyse statistique textuelle effectuée à l'aide du logiciel Alceste. Le vocabulaire employé pour la diffusion des informations touchant le dossier nucléaire iranien s'est avéré différent dans les quotidiens français et québécois. Ces différences sont effectivement perceptibles par le degré d'importance donnée aux mots constituant ce vocabulaire et par leur distribution dans les textes de chaque quotidien étudié. Notre étude se distingue des démarches d'analyse dans lesquelles la subjectivité du chercheur n'est pas suffisamment contrôlée aux endroits névralgiques du processus de recherche. Grâce à l'analyse statistique des données textuelles appliquée à notre corpus, nous sommes en mesure d'appuyer notre interprétation des textes sur des données factuelles. L'étude de la distribution des formes (mots) dans les textes nous a permis de retracer puis de décrire les différentes tendances inscrites dans un corpus traitant d'un même fait d'actualité. En d'autres termes, cette étude de la distribution des formes nous a permis de mettre en évidence des sous thèmes, des dimensions, des pôles du discours, des tendances préférentielles dans le traitement de la même information. Ainsi, Le Figaro s'est intéressé davantage au volet économique et militaire du dossier iranien; La Presse, à la proposition russe d'enrichir l'uranium iranien sur son propre sol et à l'aspect technique et scientifique de la technologie nucléaire; Le Devoir, aux efforts diplomatiques et à la technologie nucléaire, et enfin, Le Monde, qui s'est particulièrement intéressé au discours de Chirac et à l'inflexion de la doctrine de dissuasion française, a pu rendre compte de toutes les facettes du sujet. Notre hypothèse se confirme donc : l'information, concernant le dossier nucléaire iranien, diffusée au public québécois est différente de celle diffusée en France, et cette différence est perceptible par le vocabulaire employé.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
La population dont il est question ici, soit celle des personnes aveugles devenues-sourdes a perdu, tardivement, un sens essentiel à la communication; sans l'ouïe, elle est confinée à un monde de silence et d'isolement auquel elle n'est pas préparée. Elle se trouve dépourvue de moyens de communication, d'où l'urgence de mettre en oeuvre un programme pour rétablir une communication fonctionnelle dans ses activités de la vie quotidienne. La langue des signes québécoise (LSQ) constituant pour ces personnes une langue seconde, son apprentissage se révèle complexe, aussi, notre mobile est clair et délimité : restaurer une communication déficiente à l'aide d'un code de signes fonctionnels tout en favorisant la possibilité ultérieure d'acquérir la LSQ, s'il y a lieu. Pour cette raison, les signes sont choisis à même le répertoire de la LSQ et ils le sont selon des critères d'utilité, d'iconicité et d'ergonomie. Suite à l'étude de ces critères, des constituants andragogiques seront analysés, ce qui permettra l'élaboration d'un code de communication fonctionnelle.
Resumo:
Résumé : Le vieillissement démographique est statistiquement indiscutable au Québec. Ce singulier trompeur masque les différentes manières de vieillir. Pour ceux qui ne parviennent pas à vieillir en santé, les solidarités familiales, comme les solidarités institutionnelles, c’est à dire publiques viennent en principe compenser ce qu’il est convenu de désigner de perte d’autonomie. Les politiques de santé publique au Québec organisent les services de soutien à domicile sous condition d’avoir estimé la situation de la personne avec l’outil d’évaluation multiclientèle (OEMC). Il est en usage dans l’ensemble du réseau de la santé et des services sociaux, et utilisé par les professionnels dont les travailleuses et les travailleurs sociaux (TS). Or, la gérontologie est peu soutenue dans la formation initiale des TS. Nous nous sommes interrogée sur les savoirs mobilisés par les TS quand ils évaluent. S’agissant des savoirs inscrits dans la pratique, nous avons orienté la recherche dans les théories de l’activité, la didactique professionnelle et le cadre conceptuel de la médiation. Nous avons étudié l’activité de professionnels en travail social expérimentés afin d’identifier certains des savoirs mobilisés pour les rendre disponibles à la formation des étudiant (e)s en travail social au Québec. Cent-cinquante heures d’observations et vingt-deux entretiens individuels et collectifs ont été réalisés avec des intervenants volontaires du service de soutien à domicile. Les résultats préliminaires de la recherche ont été présentés lors de groupes de discussion avec les TS ayant participé à la recherche, puis avec des enseignants en travail social. Nos résultats permettent de décrire les procédures de l’évaluation dans l’organisation du service d’aide à domicile et d’en différencier le processus de l’activité par laquelle le TS évalue l’autonomie fonctionnelle de la personne. Nous constatons que les savoirs mobilisés par les TS reposent premièrement sur une connaissance fine du territoire, de l’outil d’évaluation et des institutions. Un deuxième registre de savoir concerne la conceptualisation de l’autonomie fonctionnelle par l’outil OEMC comme objet et domaine d’intervention des TS. Enfin, un troisième registre se réfère aux savoirs mobilisés pour entrer en relation avec les personnes âgées, avec leur entourage. Or, ces trois registres de savoir n’apparaissent pas dans le discours des TS et résultent de notre propre analyse sur leur pratique. L’évaluation de l’autonomie fonctionnelle analysée par le concept de médiation est révélatrice du rapport aux savoirs du TS. S’agissant de savoirs de la pratique, nous constatons que leur classification entre les catégories usuelles de savoirs théoriques ou pratiques était inopérante. Nous empruntons le vocabulaire de la didactique professionnelle : celui des invariants opératoires reliés à l’autonomie fonctionnelle et celui des schèmes d’activité reliés à l’activité d’évaluation. C’est ainsi que nous avons identifié deux moments dans l’évaluation. Le premier assemble la collecte des informations et l’analyse des données. L’autonomie fonctionnelle se décline dans des conditions d’existence de la personne sur l’axe allant de la mobilité à la cognition avec comme balises d’intervention la sécurité et l’intégrité de la personne. Dans ce processus itératif, le TS identifie avec la personne ce qui nuit à son quotidien. L’évaluation formule comment résoudre cette incidence, comment la perte d’autonomie pourrait être compensée. La collecte d’information et le raisonnement du TS est alors un mouvement itératif, les deux éléments du processus sont liés et en continu. Le second moment de l’évaluation apparait si, dans le processus itératif, le TS perçoit une dissonance. Il est essentiel d’en identifier la nature pour la prendre en compte et maintenir la finalité de l’activité qui consiste à évaluer l’autonomie fonctionnelle à des fins compensatrices. Le TS doit identifier l’objet de la dissonance pour pouvoir cerner avec la personne le besoin inhérent à la perte d’autonomie et envisager d’y remédier. La prise en compte de cette dissonance vient ralentir le déroulement de l’activité. Le raisonnement qui, jusque-là, était relié à la collecte d’informations s’en dissocie pour analyser ce qui vient faire obstacle à l’activité d’évaluation à partir de la situation. Les composantes qui génèrent la dissonance paraissent reliées à la quotidienneté, aux conditions de vie à domicile de la personne (cohérence/incohérence, refus de services, autonégligence, maltraitance, agressivité). La dissonance génère une activité plus complexe pour évaluer la situation. L’autonomie fonctionnelle se décline toujours sur l’axe mobilité/cognition avec comme balises d’intervention la sécurité et l’intégrité de la personne. Or, pour ce faire, les TS raisonnent selon trois schèmes. Dans les situations où, pour décider de la suite du dossier, il faut en référer à une norme (de service, de profession, etc.) le raisonnement est déontologique. Il est aussi des situations où le TS agit au regard de valeurs et de représentations qui relèvent de sa sphère personnelle. Nous désignons ce raisonnement d’instinctuel. Enfin, le TS peut naviguer entre ces deux orientations et choisir la voie du raisonnement clinique que nous qualifions d’éthique et se rapproche alors des pratiques prudentielles qui sont marquées par l’incertitude.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
Ce mémoire s'intéresse à l'agencement des relations qu'un enfant maintient avec ses deux parents et à leurs effets sur le développement social de l'enfant. Plus spécifiquement, ce mémoire explore les relations d'attachement et d'activation. Si le premier terme ferait traditionnellement référence à la relation spécifique entre une mère et son enfant, l'activation concernerait plutôt, selon certains auteurs, la relation entre un père et son enfant. Les psychoéducatrices et psychoéducateurs sont très souvent appelés à soutenir les personnes sur le plan de leur développement social. L'une des fondations cruciales du développement de la socialité serait la première relation créée et maintenue entre un enfant et son premier donneur de soins : la relation d'attachement. En effet, la relation d'attachement, selon la définition classique, référerait davantage à la relation spécifique que les enfants maintiendraient généralement avec leur mère. La façon dont l'enfant entrera ultérieurement en contact avec les personnes de son environnement pourrait être calquée sur cette première relation. Si, au départ, on s'intéressait davantage à l'attachement mère-enfant, plusieurs études ont tenté d'intégrer le père au modèle classique de l'attachement. Il semble que les pères s'intégreraient plus difficilement à ce modèle classique. Certains l'expliquent en faisant valoir que les prémisses théoriques de l'attachement se seraient plutôt concentrées sur la dimension simplement sécuritaire qui serait plus adaptée pour les mères. Les pères auraient un mode d'entrée en relation avec leurs enfants qui serait beaucoup plus dynamique, caractérisé par des jeux physiques chaleureux, mais où les limites seraient clairement définies par l'autorité du parent. Ce type de relation s'appelle la relation d'activation. La relation d'activation favoriserait chez l'enfant la persévérance et l'autorégulation face à l'exploration sécuritaire de son environnement, et par le fait même, constituerait le pendant exploratoire de la relation d'attachement. Des études ont déjà montré les liens de la relation d'activation avec le développement social de l'enfant. Si le cadre théorique de l'activation a été pensé en fonction du père, il reste encore à savoir si la mère peut aussi prendre sa place dans cette relation dynamisante. Alors qu'au Québec, l'organisation des rôles familiaux est en constante évolution, il convient de bien comprendre d'abord les agencements relationnels de la famille nucléaire afin d'éventuellement outiller les parents de familles d'autres types. Pour explorer les mécanismes relationnels, une recension des écrits systématique a été réalisée. L'un des constats les plus intéressants de cette recension est l'absence d'études ayant étudié l'activation et le développement social auprès des enfants de plus de 36 mois. De plus, les deux types de relations (attachement et activation) n'ont pas été vérifiés chez les deux parents d'une famille nucléaire. Un dernier constat concerne enfin les instruments utiliser pour mesurer le construit de la sécurité d'attachement : il semble que, selon l'outil choisi et le type de variable utilisé, les constats réalisés sur la sécurité d'attachement diffèrent. Afin de répondre à cette lacune, le présent projet propose une avenue novatrice, à titre exploratoire : vérifier l'agencement des relations d'activation et d'attachement dans une triade familiale (un enfant et ses deux parents biologiques), et son lien avec le développement social de l'enfant. Étant donné les ressources limitées, seulement cinq cas ont été recrutés. Des données ont été collectées par observation directe et indirecte, selon un devis transversal. Puis les données ont été analysées d'abord de façon descriptive. Quelques analyses corrélationnelles ont toutefois été réalisées à titre exploratoire. Malgré l'impossibilité de généraliser les résultats de cette étude, ces derniers présentent plusieurs points similaires à la littérature scientifique. Le constat le plus évident est le lien entre les problèmes d'activation et les difficultés de comportements internalisés qui ont aussi été documentés dans la littérature scientifique. Ce projet consolide l'intérêt de s'intéresser aux deux dimensions de la relation parent-enfant, tant en recherche que sur le plan de l'évaluation psychosociale de l'enfant.