114 resultados para Technique de mesure de très faible radioactivité
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Le Japon connaît depuis les années 1980 un certain nombre de difficultés liées au taux de natalité qui sont parmi les plus faibles dans le monde. Face à cette situation, le gouvernement japonais rejette la faute sur les femmes qui, selon le gouvernement, perdent les valeurs familiales et deviennent de plus en plus égoïstes. Ce changement, serait dû, entre autres, à un niveau plus haut niveau d’éducation et à des attentes croissantes tant au niveau personnel que professionnel. Dans ce mémoire, nous nous attacherons, à l’aide de différentes théories sur la faible natalité, à démontrer que s’il y a effectivement eu un changement au niveau des valeurs familiales, ces derniers n’expliquent pas entièrement la situation actuelle. Ainsi, nous touchons ici à la situation économique, au manque d’égalité entre les hommes et les femmes dans les différentes sphères de la vie et, enfin nous parlerons des changements au niveau des valeurs.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
L’objectif principal de cette thèse de doctorat est de déterminer, à l’aide d’une grille d’observation des comportements parentaux après la séparation , si des catégories de la grille permettent de distinguer entre eux les couples parentaux où le risque de Détérioration du Lien Parent-Enfant en contexte de séparation conflictuelle (DLPE) est très élevé des couples parentaux où le risque de DLPE est très faible. De plus, trois objectifs secondaires s’ajoutent à notre objectif principal. Premièrement, nous avons tenté de voir s’il était possible de prédire les cas où les risques de DLPE sont très élevés. Deuxièmement, nous avons exploré comment la DLPE s’inscrit dans les conséquences pouvant découler de la séparation parentale. Et enfin, troisièmement, nous avons brièvement exploré la question des allégations d’agression sexuelle envers l’enfant dans les contextes de DLPE. Cette thèse est composée de deux articles et d’une note de recherche brève. Le premier article s’intitule En quoi et pourquoi les hommes et les femmes sont-ils affectés différemment par la séparation conjugale? Cet article est une recension critique de la littérature traitant des conséquences du divorce chez les adultes ainsi que des conséquences différentielles du divorce pour les hommes et les femmes. Dans cet article, des hypothèses explicatives quant à l’origine de ces diverses conséquences sont discutées et nous proposons de les conceptualiser sous la forme d’un éventail rendant compte des impacts tant positifs que négatifs, notamment à une extrémité du continuum où se retrouvent les dynamiques DLPE. Ce continuum sur lequel s’inscrit la DLPE permet de conceptualiser et de discuter de l’adaptation ou de la mésadaptation des individus face à la séparation. Dans cet article, notre regard sur la DLPE fait ressortir les lacunes de la recherche actuelle sur ce phénomène. Il ressort un manque flagrant de connaissances du contexte d’apparition du phénomène, de connaissances empiriques sur la question des allégations d’abus sexuel se produisant dans le cadre de telles dynamiques ainsi que de connaissances des caractéristiques et des comportements des individus qui y sont impliqués. Conséquemment, notre article met l’emphase sur la nécessité qu’une tradition de recherche se développe dans le domaine de la DLPE afin de clarifier tous ces aspects. Enfin, cet article met en lumière différents facteurs de risque et différents facteurs de protection susceptibles d’expliquer que le divorce ait des conséquences différentes chez les hommes et les femmes. Le deuxième article s’intitule Étude exploratoire des caractéristiques et des comportements de couples parentaux séparés engagés dans une dynamique de Détérioration du Lien Parent-Enfant. Cet article cherchait à déterminer si les couples parentaux séparés hautement à risque d’être engagés dans une dynamique de DLPE se distinguent des couples parentaux séparés dont le risque de DLPE est faible sur certaines variables. Nous avons étudié cette question auprès de notre échantillon de 82 couples parentaux séparés pour lesquels le risque de DLPE est évalué comme étant soit très faible (groupe de comparaison) ou soit très élevé (en tenant compte du fait que la mère ou le père soit le parent dénigrant). À cette fin, nous avons utilisé un instrument de mesure, la Grille d’observation de la Détérioration du Lien Parent-Enfant après la séparation (GODLPE), adapté de celui développé par Johnston, Walters, & Olesen, (2005). Les résultats obtenus à l’aide de tests d’analyse de variance et de khi-deux démontrent que les ex-couples du groupe de comparaison se distinguent des ex-couples du groupe où le risque de DLPE est très élevé par un mariage significativement plus long et un niveau de conflit plus élevé. Également, les résultats démontrent que les parents du groupe de comparaison, les parents dénigrés et les parents dénigrants se distinguent entre eux quant à leurs comportements coparentaux aliénants, à leur relation coparentale supportante, à leur relation coparentale méfiante et à leurs comportements de renversement de rôle. Finalement, notre étude révèle que la durée du mariage et l’intensité des conflits permettent de prédire le risque de DLPE. La note de recherche brève s’intitule Étude exploratoire des allégations d’agression sexuelle envers l’enfant dans un contexte de Détérioration du Lien Parent-Enfant. Cet note de recherche s’intéresse à ce qui a longtemps été considéré comme l’une des caractéristiques déterminantes des dynamiques de DLPE, soit les allégations d’agression sexuelle envers l’enfant professées par un parent à l’endroit de l’autre parent ou d’un membre de son entourage proche. Nous avons étudié cette question chez 82 couples parentaux séparés pour lesquels le risque de DLPE était évalué comme étant très faible ou très élevé. Les résultats indiquent qu’il n’existe aucune différence significative entre les groupes relativement à cette caractéristique. Cependant, les mères auraient davantage tendance à alléguer de tels abus que les pères. Enfin, aucune des allégations professées n’a été jugée suffisamment crédible pour que la Directeur de la protection de la Jeunesse (DPJ) juge nécessaire d’intervenir. Plusieurs hypothèses sont soulevées pour expliquer ces résultats.
Resumo:
La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Le cancer épithélial de l’ovaire (CEO) est le cancer gynécologique le plus létal. Plus de 70% des patientes diagnostiquées avec une tumeur de stade avancé rechutent suite aux traitements chimiothérapeutiques de première ligne, la survie à cinq ans étant ainsi très faible. Afin de mieux comprendre l’évolution de la maladie, nous avons recherché de nouveaux gènes, responsables de l’initiation et de la progression du CEO. Précédemment, des lignées cellulaires ont été dérivées à partir de la tumeur primaire et récurrente et/ou d’ascites de trois patientes. Le séquençage de l’ARN de ces lignées par la technologie de séquençage de nouvelle génération (TSNG) nous a permis d’identifier des mutations ponctuelles qui pourraient nous indiquer des gènes dérégulés dans le CEO. La TSNG est un bon outil qui permet d’identifier et de cribler à grande échelle des mutations. Nous avons sélectionné PLEC1, SCRIB, NCOR2, SEMA6C, IKBKB, GLCE et ITGAE comme gènes candidats présentant des mutations dans nos lignées et ayant une relation fonctionnelle avérée avec le cancer. Étant donné que la TSNG est une technique à taux de fiabilité limité, nous avons validé ces mutations par séquençage Sanger. Ensuite, nous avons étudié l’effet de ces mutations sur la structure protéique et l’expression de PLEC1, de SCRIB et de SEMA6C. Seules certaines mutations dans les gènes PLEC1, SCRIB et SEMA6C ont pu être confirmées. PLEC1 et SCRIB sont deux protéines d’échafaudage dont la mutation, rapportée dans plusieurs cancers, pourrait induire des changements de leurs conformations et affecter leurs interactions et leurs fonctions. Les conséquences de ces mutations sur la tumorigenèse de l’ovaire devront être étudiées.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Nous présentons la découverte de quatorze nouveaux systèmes binaires ayant une séparation supérieure à 250 UA et dont au moins l'une des composantes est une naine M ou une naine L. Ces systèmes ont d'abord été identifiés en cherchant des objets ayant un mouvement propre commun autour d'étoiles connues possédant un mouvement propre élevé, grâce à une corrélation croisée de grands relevés du ciel dans l'infrarouge proche (2MASS, SDSS et SIMP). Un suivi astrométrique, afin de confirmer le mouvement propre commun, a été réalisé sur toutes les cibles avec la caméra SIMON et/ou la caméra CPAPIR à l'Observatoire du Mont-Mégatic (OMM) ou à l'Observatoire interaméricain du Cerro Tololo (CTIO). Un suivi spectroscopique a aussi été effectué sur la plupart des compagnons avec GMOS ou GNIRS à Gemini afin de déterminer leurs types spectraux. La probabilité que deux objets forment un système binaire par hasard a été évaluée afin de s'assurer que les couples candidats que nous présentons soient réellement liés.Un de nos nouveaux systèmes a un compagnon de masse sous-stellaire : 2M1259+1001 (L4.5). L'étude des systèmes que nous avons découverts pourra, entre autre, nous aider à mieux comprendre les mécanismes de formation des étoiles de très faible masse et des naines brunes.
Resumo:
L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.
Resumo:
L’atteinte de la fonction endothéliale représente une phase précoce de l’athérosclérose, un stade où les patients sont généralement asymptomatiques. Il existe donc un intérêt certain à détecter la dysfonction endothéliale. Nous avons développé une technique de mesure des variations de flot artériel au niveau des membres supérieurs, basée sur la spectroscopie proche infrarouge (NIRS). Cette approche permettrait d’étudier le niveau d’atteinte vasculaire et probablement de quantifier le degré de dysfonction endothéliale périphérique lors d’une hyperémie réactive. L'expérience a été exécutée sur deux cohortes de 13 et de 15 patients et a été comparée à la pléthysmographie par jauge de contrainte (SGP) qui est considérée comme une méthode de référence. Par la suite, nous avons caractérisé la réponse endothéliale par modélisation de la courbe hyperémique du flot artériel. Des études préliminaires avaient démontré que la réponse hyperémique adoptait majoritairement une forme bi-modale. Nous avons tenté de séparer les composantes endothéliales-dépendantes et endothéliales-indépendantes de l’hyperémie. La quantification des deux composantes de la réaction hyperémique permet de calculer un indice de la ‘santé’ du système endothélial local. Cet indice est nommé le ηfactor. Les résultats montrent une forte corrélation des mesures de flots entre la technique développée et la méthode de référence (r=0.91). Nous avons conclu que NIRS est une approche précise pour la mesure non-invasive du flot artériel. Nous avons obtenu une bonne répétabilité (ICC = 0.9313) pour le ηfactor indiquant sa robustesse. Cependant des études supplémentaires sont nécessaires pour valider la valeur de diagnostic du facteur défini. Mots clés: hyperémie réactive, réponse myogénique, oxyde nitrique, athérosclérose, spectroscopie proche infrarouge
Resumo:
La présence importante de plusieurs réseaux sans-fils de différentes portées a encouragée le développement d’une nouvelle génération d’équipements portables sans-fils avec plusieurs interfaces radio. Ainsi, les utilisateurs peuvent bénéficier d’une large possibilité de connectivité aux réseaux sans-fils (e.g. Wi-Fi [1], WiMAX [2], 3G [3]) disponibles autour. Cependant, la batterie d’un nœud mobile à plusieurs interfaces sera rapidement épuisée et le temps d’utilisation de l’équipement sera réduit aussi. Pour prolonger l’utilisation du mobile les standards, des réseaux sans-fils, on définie (individuellement) plusieurs états (émission, réception, sleep, idle, etc.); quand une interface radio n’est pas en mode émission/réception il est en mode sleep/idle où la consommation est très faible, comparée aux modes émission/réception. Pourtant, en cas d’équipement portable à multi-interfaces radio, l’énergie totale consommée par les interfaces en mode idle est très importante. Autrement, un équipement portable équipé de plusieurs interfaces radio augmente sa capacité de connectivité mais réduit sa longévité d’utilisation. Pour surpasser cet inconvénient on propose une plate-forme, qu'on appelle IMIP (Integrated Management of Interface Power), basée sur l’extension du standard MIH (Media Independent Handover) IEEE 802.21 [4]. IMIP permet une meilleure gestion d’énergie des interfaces radio, d’un équipement mobile à multi-radio, lorsque celles-ci entrent en mode idle. Les expérimentations que nous avons exécutées montrent que l’utilisation de IMIP permet d'économiser jusqu'a 80% de l'énergie consommée en comparaison avec les standards existants. En effet, IMIP permet de prolonger la durée d'utilisation d'équipements à plusieurs interfaces grâce à sa gestion efficace de l'énergie.
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.
Resumo:
Les astrocytes sont des cellules gliales présentes dans le système nerveux central, qui exercent de nombreuses fonctions physiologiques essentielles et sont impliquées dans la réponse aux lésions et dans plusieurs pathologies du cerveau. Les astrocytes sont générés par les cellules de la glie radiale, les précurseurs communs de la plupart des cellules neuronales et gliales du cerveau, après le début de la production des neurones. Le passage de la neurogenèse à la gliogenèse est le résultat de mécanismes moléculaires complexes induits par des signaux intrinsèques et extrinsèques responsables du changement de propriété des précurseurs et de leur spécification. Le gène Pax6 code pour un facteur de transcription hautement conservé, impliqué dans plusieurs aspects du développement du système nerveux central, tels que la régionalisation et la neurogenèse. Il est exprimé à partir des stades les plus précoces dans les cellules neuroépithéliales (les cellules souches neurales) et dans la glie radiale, dérivant de la différenciation de ces cellules. L’objectif de cette étude est d’analyser le rôle de Pax6 dans la différenciation et dans le développement des astrocytes. À travers l’utilisation d’un modèle murin mutant nul pour Pax6, nous avons obtenu des résultats suggérant que la suppression de ce gène cause l'augmentation de la prolifération et de la capacité d'auto-renouvellement des cellules souches neurales embryonnaires. In vitro, les cellules mutantes prolifèrent de façon aberrante et sous-expriment les gènes p57Kip2, p16Ink4a, p19Arf et p21Cip1, qui inhibent la progression du le cycle cellulaire. De plus, Pax6 promeut la différenciation astrocytaire des cellules souches neurales embryonnaires et est requis pour la différenciation des astrocytes dans la moëlle épinière. Les mutants nuls pour Pax6 meurent après la naissance à cause de graves défauts développementaux dus aux fonctions essentielles de ce gène dans le développement embryonnaire de plusieurs organes. En utilisant un modèle murin conditionnel basé sur le système CRE/ loxP (hGFAP-CRE/ Pax6flox/flox) qui présente l’inactivation de Pax6 dans les cellules de la glie radiale, viable après la naissance, nous avons montré que Pax6 est impliqué dans la maturation et dans le développement post-natal des astrocytes. Le cortex cérébral des souris mutantes conditionnelles ne présente pas d’astrocytes matures à l’âge de 16 jours et une très faible quantité d’astrocytes immatures à l’âge de trois mois, suggérant que Pax6 promeut la différenciation et la maturation des astrocytes. De plus, Pax6 semble jouer un rôle même dans le processus de différenciation et de maturation de cellules gliales rétiniennes. L’étude des gènes et des mécanismes moléculaires impliqués dans la génération des astrocytes est crucial pour mieux comprendre le rôle physiologique et les altérations pathologiques des ces cellules.