38 resultados para Imagerie par résonnance magnétique fonctionnelle
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Résumé : L'imagerie par résonance magnétique pondérée en diffusion est une modalité unique sensible aux mouvements microscopiques des molécules d'eau dans les tissus biologiques. Il est possible d'utiliser les caractéristiques de ce mouvement pour inférer la structure macroscopique des faisceaux de la matière blanche du cerveau. La technique, appelée tractographie, est devenue l'outil de choix pour étudier cette structure de façon non invasive. Par exemple, la tractographie est utilisée en planification neurochirurgicale et pour le suivi du développement de maladies neurodégénératives. Dans cette thèse, nous exposons certains des biais introduits lors de reconstructions par tractographie, et des méthodes sont proposées pour les réduire. D'abord, nous utilisons des connaissances anatomiques a priori pour orienter la reconstruction. Ainsi, nous montrons que l'information anatomique sur la nature des tissus permet d'estimer des faisceaux anatomiquement plausibles et de réduire les biais dans l'estimation de structures complexes de la matière blanche. Ensuite, nous utilisons des connaissances microstructurelles a priori dans la reconstruction, afin de permettre à la tractographie de suivre le mouvement des molécules d'eau non seulement le long des faisceaux, mais aussi dans des milieux microstructurels spécifiques. La tractographie peut ainsi distinguer différents faisceaux, réduire les erreurs de reconstruction et permettre l'étude de la microstructure le long de la matière blanche. Somme toute, nous montrons que l'utilisation de connaissances anatomiques et microstructurelles a priori, en tractographie, augmente l'exactitude des reconstructions de la matière blanche du cerveau.
Resumo:
Ce mémoire est divisé en quatre chapitres. D’abord, une introduction initie le lecteur au domaine des neurosciences. Ensuite, le chapitre 1 décrit les étapes de la dissection virtuelle par tractographie, à partir du phénomène physique de la diffusion jusqu’aux mesures statistiques des structures de la matière blanche. Le chapitre 2 présentera une nouvelle méthode d’assurance qualité, basée sur l’analyse volumique des faisceaux de la matière blanche, la contribution principale de ce mémoire. Finalement, la conclusion contient une discussion des problématiques non résolues ainsi que des perspectives d’avenir pour la tractographie.
Resumo:
Résumé : Le trouble de l’acquisition de la coordination (TAC), d’étiologie encore indéterminée, est une anomalie neurologique affectant environ 6% des enfants de l'âge scolaire. Le TAC se manifeste essentiellement par un déficit au niveau des exécutions motrices. Le présent travail de recherche comporte deux volets portant sur le TAC. Premièrement, une étude clinique sur 129 sujets âgés de 4 à 18 ans a permis de classifier les caractéristiques du TAC en sous-groupes cliniques. Trente-trois caractéristiques du TAC, les plus fréquemment rapportées dans la littérature, ont été recensées chez nos sujets. L'application d'évaluations statistiques a permis de faire ressortir trois classes essentielles. Le deuxième volet consistait à identifier les régions cérébrales impliquées dans une tâche motrice à l'aide de l'imagerie par la tomographie d'émission par positrons (TEP). Deux sujets avec TAC et deux sujets normaux ont été étudiés en deux séances d'imagerie TEP dont l'une au repos et l'autre en tapotant du pouce sur les doigts de la main gauche non-dominante. Les analyses du premier volet ont montré, entre autres, que le TAC touchait 3.17 garçons pour une fille, que tous les sujets étaient lents, que 47% des sujets étaient gauchers ou ambidextres alors que seulement 10% sont gauchers dans la population générale, que 26% avaient une dyspraxie verbale, et que 83% avaient été diagnostiqués anxieux. Les sujets ont été classés en trois sous-groupes: 1- maladroits et autres caractéristiques, sans problème de langage; 2- trouble de l’estime de soi et relation avec les pairs; 3- difficulté de langage. En imagerie, les structures cérébrales ont été classées selon leur captation du 18F-fluorodesoxyglucose (FDG) dans les hémisphères droit et gauche, avant et après l'activation, et en comparaison avec les sujets normaux. Trois types de structures cérébrales sont ressortis avec les statistiques: des structures activées, celles relativement non sollicitées et des structures désactivées. Il y avait plus de variations dans la captation du FDG chez les sujets avec TAC que chez les normaux. En conclusion, la caractérisation des sujets avec TAC par le diagnostic clinique et par l'imagerie peut procurer un plan de thérapie adéquat et ciblé étant donné que le TAC a un large spectre et pourrait coexister avec d'autres déficits cérébraux.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
Resumo:
Dans la dernière décennie, la robotique souple a connu un gain de popularité considérable. Elle est, de façon inhérente, sécuritaire pour les humains et l’environnement qui l’entourent. Grâce à sa faible rigidité, la robotique souple est idéale pour manipuler des objets fragiles et elle est en mesure de s’adapter à son environnement. Les caractéristiques uniques de la robotique souple font de cette technologie un tremplin vers la conception d’appareils médicaux novateurs, plus particulièrement pour des outils permettant le positionnement d’aiguilles dans le but de faire des interventions percutanées, notamment au niveau du foie. Toutefois, la souplesse de cette technologie induit, du même coup, quelques désagréments. Elle procure un comportement sécuritaire, mais entraîne aussi un manque de rigidité limitant les applications de la robotique souple. Sans une rigidité minimale, il est impossible d’accomplir des opérations repérables et précises. La robotique souple a en fait un compromis majeur entre la capacité de chargement et la plage d’utilisation. Pour utiliser cette technologie dans le domaine médical, il est primordial d’ajouter un système permettant de moduler la rigidité du système pour inhiber ce compromis. Couplée avec un système de freinage granulaire, la robotique souple semble comporter l’ensemble des caractéristiques permettant d’accomplir des interventions au foie. Cette étude tend à démontrer que couplée à un système modulant la rigidité, la robotique souple peut être utilisée pour accomplir des opérations d’une façon précise et repérable, tout en demeurant sécuritaire. Le positionneur d’aiguilles développé est 100 % compatible avec l’Imagerie à Résonance Magnétique (IRM). La plage d’insertion du système permet de rejoindre l’entièreté du foie (1500 cm³), tout en maintenant une rigidité suffisante (3 N/mm) et en étant aussi précis que l’outil d’imagerie utilisée (1 mm). L’approche hybride consistant à développer un système activé de façon souple couplée à un module régulant sa rigidité permet d’obtenir à la fois les avantages d’une robotique compliante (souple) et conventionnelle (dure).
Resumo:
Le cadre de référence de cet essai explique les concepts de l'approche par compétences, de l'apprentissage par problèmes, de l'adaptation ainsi que des stratégies d'adaptation fonctionnelles, dysfonctionnelles et à la variabilité fonctionnelle décrites par Carver, Scheier et Weintraub (1989) et mène aux objectifs de cette recherche.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Résumé : L’interaction entre la douleur et le système moteur est bien connue en clinique et en réadaptation. Il est sans surprise que la douleur est un phénomène considérablement invalidant, affectant la qualité de vie de ceux et celles qui en souffrent. Toutefois, les bases neurophysiologiques qui sous-tendent cette interaction demeurent, encore aujourd’hui, mal comprises. Le but de la présente étude était de mieux comprendre les mécanismes corticaux impliqués dans l’interaction entre la douleur et le système moteur. Pour ce faire, une douleur expérimentale a été induite à l’aide d’une crème à base de capsaïcine au niveau de l’avant-bras gauche des participants. L'effet de la douleur sur la force des projections corticospinales ainsi que sur l’activité cérébrale a été mesuré à l’aide de la stimulation magnétique transcrânienne (TMS) et de l’électroencéphalographie (EEG), respectivement. L’analyse des données EEG a permis de révéler qu'en présence de douleur aiguë, il y a une augmentation de l’activité cérébrale au niveau du cuneus central (fréquence têta), du cortex dorsolatéral préfrontal gauche (fréquence alpha) ainsi que du cuneus gauche et de l'insula droite (toutes deux fréquence bêta), lorsque comparée à la condition initiale (sans douleur). Également, les analyses démontrent une augmentation de l'activité du cortex moteur primaire droit en présence de douleur, mais seulement chez les participants qui présentaient simultanément une diminution de leur force de projections corticales (mesurée avec la TMS t=4,45, p<0,05). Ces participants ont également montré une plus grande connectivité entre M1 et le cuneus que les participants dont la douleur n’a pas affecté la force des projections corticospinales (t=3,58, p<0,05). Ces résultats suggèrent qu’une douleur expérimentale induit, chez certains individus, une altération au niveau des forces de projections corticomotrices. Les connexions entre M1 et le cuneus seraient possiblement impliquées dans la survenue de ces changements corticomoteurs.