17 resultados para Navigation par tomographie axiale
em Université de Montréal, Canada
Resumo:
Objectif: Nous avons effectué une étude chez 135 patients ayant subis une chirurgie lombo-sacrée avec vissage pédiculaire sous navigation par tomographie axiale. Nous avons évalué la précision des vis pédiculaires et les résultats cliniques. Méthodes: Cette étude comporte 44 hommes et 91 femmes (âge moyen=61, intervalle 24-90 ans). Les diamètres, longueurs et trajectoires des 836 vis ont été planifiés en préopératoire avec un système de navigation (SNN, Surgical Navigation Network, Mississauga). Les patients ont subi une fusion lombaire (55), lombo-sacrée (73) et thoraco-lombo-sacrée (7). La perforation pédiculaire, la longueur des vis et les spondylolisthesis sont évalués par tomographies axiales postopératoires. Le niveau de douleur est mesuré par autoévaluations, échelles visuelles analogues et questionnaires (Oswestry et SF-36). La fusion osseuse a été évaluée par l’examen des radiographies postopératoires. Résultats: Une perforation des pédicules est présente pour 49/836 (5.9%) des vis (2.4% latéral, 1.7% inférieur, 1.1% supérieur, 0.7% médial). Les erreurs ont été mineures (0.1-2mm, 46/49) ou intermédiaires (2.1 - 4mm, 3/49 en latéral). Il y a aucune erreur majeure (≥ 4.1mm). Certaines vis ont été jugées trop longues (66/836, 8%). Le temps moyen pour insérer une vis en navigation a été de 19.1 minutes de l΄application au retrait du cadre de référence. Un an postopératoire on note une amélioration de la douleur des jambes et lombaire de 72% et 48% en moyenne respectivement. L’amélioration reste stable après 2 ans. La dégénérescence radiologique au dessus et sous la fusion a été retrouvée chez 44 patients (33%) and 3 patients respectivement (2%). Elle est survenue en moyenne 22.2 ± 2.6 mois après la chirurgie. Les fusions se terminant à L2 ont été associées à plus de dégénération (14/25, 56%). Conclusion: La navigation spinale basée sur des images tomographiques préopératoires est une technique sécuritaire et précise. Elle donne de bons résultats à court terme justifiant l’investissement de temps chirurgical. La dégénérescence segmentaire peut avoir un impact négatif sur les résultats radiologique et cliniques.
Resumo:
Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.
Resumo:
Ce mémoire présente mes travaux ayant menés au développement d’une première génération de radioligands marqués au fluor-18 (t1/2 = 110 min) et au carbone-11 (t1/2 = 20.4 min) destinés à l’imagerie cérébrale in vivo du récepteur tyrosine kinase neurotrophique de type 2 (TrkB) en tomographie par émission de positons (TEP). Ces travaux reposent sur l’identification récente de ligands de TrkB non peptidiques à hautes affinités dérivés du 7,8-dihydroxyflavone. La synthèse d’une série de dérivés du 7,8-dihydroxyflavone non-radioactifs de même que des précuseurs à l’incorporation du fluro-18 et du carbone-11 a d’abord été effectuée. Partant des précurseurs adéquats synthétisés, la radiosynthèse de deux radioligands, l’un marqué au fluor-18 et l’autre au carbone-11, a été développée. Ces radiosynthèses reposent respectivement sur une 18F-radiofluorination nucléophile aromatique nouvelle et hautement efficace et sur une 11C-méthylation N-sélective. Les radiotraceurs de TrkB ainsi obtenus ont ensuite été évalués in vitro en autoradiographie et in vivo en tant que traceurs TEP dans des rats. L’évaluation des propriétés physico-chimique de même que de la stabilité in vitro des radiotraceurs sont présentées. Partant d’une série d’analogues cristallisés de ces flavones synthétiques, une étude de relation structure-activité a été menée. La combinaison de cette étude, de pair avec l’évaluation in vivo de la première génération de radiotraceurs de TrkB a aussi permis d’investiguer les pharmacophores nécessaires à l’affinité de ces ligands de même que d’identifier des fragments structurels associés au métabolisme des radiotraceurs. La radiosynthèse d’un troisième radioligand de TrkB et son évaluation TEP in vivo de même que la mise en lumière des modifications structurelles utiles au développement d’une seconde génération de radioligands de TrkB avec des propriétés optimisées pour fin d’imagerie TEP sont aussi détaillés.
Resumo:
Objectifs: Évaluer si un programme d’entraînement en résistance d’une durée d’un an prévient le regain de poids et majore l’amélioration du profil inflammatoire. Le second objectif de cette étude était de déterminer si la variation du tissu adipeux viscéral est associée aux changements dans les concentrations sanguines des marqueurs inflammatoires. Méthodes: Soixante-dix femmes post-ménopausées en surpoids ou obèses ont été randomisées dans un des deux groupes suivants : (1) Contrôle ou (2) Entraînement en résistance. La composition corporelle (absorptiométrie double à rayons X et tomographie axiale) et les marqueurs inflammatoires (protéine C-réactive, orosomucoïde, haptoglobine) ont été évalués avant et après la période de suivi d’une durée d’un an. Résultats: Suite à la période de suivi, un regain significatif de poids corporel et de masse grasse était observé dans le groupe contrôle et le groupe entraînement en résistance (p < 0,05). Une réduction des concentrations sériques de l’orosomucoïde et une hausse des niveaux sériques de l’haptoglobine étaient également notées dans les deux groupes (p < 0,05). La variation du tissu adipeux viscéral était seulement associée aux changements dans les concentrations sériques de la protéine C-réactive (r = 0,373, p < 0,05). Conclusion: Nos résultats suggèrent que l’entraînement en résistance ne prévient pas le regain de poids corporel et ne majore pas l’amélioration du profil inflammatoire chez des femmes post-ménopausées en surpoids ou obèses. De plus, nos résultats indiquent que la variation du tissu adipeux viscéral ne semble pas être un facteur clé impliqué dans les changements des concentrations sanguines des marqueurs inflammatoires.
Resumo:
Les maladies cardiovasculaires (MCV) demeurent au tournant de ce siècle la principale cause de mortalité dans le monde. Parmi les facteurs de risque, l’hypercholestérolémie et l’obésité abdominale sont directement liées au développement précoce de l’athérosclérose. L’hypercholestérolémie familiale, communément associée à une déficience des récepteurs des lipoprotéines de basse densité (LDLR), est connue comme cause de maladie précoce d’athérosclérose et de calcification aortique chez l’humain. La subtilisine convertase proprotéine/kexine du type 9 (PCSK9), membre de la famille des proprotéines convertases, est trouvée indirectement associée aux MCV par son implication dans la dégradation du LDLR. Chez l'humain, des mutations du gène PCSK9 conduisent soit à une hypercholestérolémie familiale, soit à une hypocholestérolémie, selon que la mutation entraîne un gain ou une perte de fonction, respectivement. Il demeure incertain si les individus porteurs de mutations causant un gain de fonction de la PCSK9 développeront une calcification aortique ou si des mutations entraînant une perte de fonction provoqueront une obésité abdominale. Dans cette étude, nous avons examiné : 1) l’effet d’une surexpression de PCSK9 dans le foie de souris sur la calcification aortique ; 2) les conséquences d’une déficience en PCSK9 (Pcsk9 KO), mimant une inhibition pharmacologique, sur le tissu graisseux. Nous avons utilisé un modèle de souris transgénique (Tg) surexprimant le cDNA de PCSK9 de souris dans les hépatocytes de souris et démontrons par tomographie calculée qu’une calcification survient de façon moins étendue chez les souris PCSK9 Tg que chez les souris déficientes en LDLR. Alors que le PCSK9 Tg et la déficience en LDLR causaient tous deux une hypercholestérolémie familiale, les niveaux seuls de cholestérol circulant ne parvenaient pas à prédire le degré de calcification aortique. Dans une seconde étude, nous utilisions des souris génétiquement manipulées dépourvues de PSCK9 et démontrons que l’accumulation de graisses viscérales (adipogenèse) apparaît régulée par la PCSK9 circulante. Ainsi, en l’absence de PCSK9, l’adipogenèse viscérale augmente vraisemblablement par régulation post-traductionnelle des récepteurs à lipoprotéines de très basse densité (VLDLR) dans le tissu adipeux. Ces deux modèles mettent en évidence un équilibre dynamique de la PCSK9 dans des voies métaboliques différentes, réalisant un élément clé dans la santé cardiovasculaire. Par conséquent, les essais d’investigations et d’altérations biologiques de la PCSK9 devraient être pris en compte dans un modèle animal valide utilisant une méthode sensible et en portant une attention prudente aux effets secondaires de toute intervention.
Resumo:
La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose).
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
Nous proposons une approche semi-automatique pour la rétro-ingénierie des diagrammes de séquence d’UML. Notre approche commence par un ensemble de traces d'exécution qui sont automatiquement alignées pour déterminer le comportement commun du système. Les diagrammes de séquence sont ensuite extraits avec l’aide d’une visualisation interactive, qui permet la navigation dans les traces d'exécution et la production des opérations d'extraction. Nous fournissons une illustration concrète de notre approche avec une étude de cas, et nous montrons en particulier que nos diagrammes de séquence générés sont plus significatifs et plus compacts que ceux qui sont obtenus par les méthodes automatisées.
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.
Resumo:
L’annonce d’un diagnostic de cancer devrait être considérée par les professionnels de la santé, comme un processus constitué de plusieurs étapes que doit traverser la personne atteinte, plutôt que comme un évènement en soi (Tobin & Begley, 2008). Lors de la période entourant l’annonce du diagnostic, la personne peut être confrontée à des difficultés reliées à la navigation dans un système de santé complexe, en plus des sentiments négatifs engendrés par la crainte de la maladie. Pour soutenir les personnes atteintes de cancer, le programme québécois de lutte contre le cancer (PQLCC), a instauré le rôle de l’infirmière pivot en oncologie (IPO) en 2000. À l’heure actuelle, peu d’études, à notre connaissance, se sont attardées au soutien de l’IPO dans cette période. La présente étude avait pour but, d’explorer les perceptions de personnes atteintes de cancer quant au soutien offert par l’IPO, dans la période entourant l’annonce du diagnostic. L’étudiante-chercheuse s’est inspirée du Cadre de soins de soutien de Fitch (1994) pour entreprendre cette étude qualitative descriptive. Des entrevues individuelles auprès de sept personnes atteintes de différents cancers ont été réalisées. L’analyse de données a été effectuée à l’aide de la méthode de Miles et Huberman (2003), par la transcription intégrale des entrevues. Elle a permis d’identifier trois thèmes soit : le soutien formel requis pour faire face au chaos, le soutien informationnel et émotionnel à parfaire et le soutien disponible apportant sécurité et assurance. Les résultats ont mis en évidence les perceptions de personnes atteintes de cancer quant au soutien offert par l’IPO soit la nécessité de rendre accessible les soins et services de l’IPO plus tôt dans la période entourant l’annonce du diagnostic. Les personnes atteintes de cancer ont besoin d’être aidées à faire face aux difficultés rencontrées lors de cette période, notamment à l’incertitude reliée aux résultats d’examens diagnostics, à l’incompréhension des informations reçues et aux sentiments négatifs engendrés par la menace de la maladie. Les résultats évoquent le souhait des participants, à l’effet que, l’offre de soutien de l’IPO, soit axée sur leurs besoins essentiellement dans les domaines informationnel et émotionnel. Ils auraient souhaité pouvoir, partager leur expérience avec l’IPO, mieux comprendre le diagnostic de cancer et savoir davantage à quoi s’attendre lors du début des traitements. Par ailleurs, savoir que le soutien de l’IPO est disponible apporte aux personnes atteintes de cancer une assurance et une confiance en leur capacité à faire face aux traitements et leur apporte un sentiment de sécurité.