972 resultados para Technique de mesure de très faible radioactivité


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Japon connaît depuis les années 1980 un certain nombre de difficultés liées au taux de natalité qui sont parmi les plus faibles dans le monde. Face à cette situation, le gouvernement japonais rejette la faute sur les femmes qui, selon le gouvernement, perdent les valeurs familiales et deviennent de plus en plus égoïstes. Ce changement, serait dû, entre autres, à un niveau plus haut niveau d’éducation et à des attentes croissantes tant au niveau personnel que professionnel. Dans ce mémoire, nous nous attacherons, à l’aide de différentes théories sur la faible natalité, à démontrer que s’il y a effectivement eu un changement au niveau des valeurs familiales, ces derniers n’expliquent pas entièrement la situation actuelle. Ainsi, nous touchons ici à la situation économique, au manque d’égalité entre les hommes et les femmes dans les différentes sphères de la vie et, enfin nous parlerons des changements au niveau des valeurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif principal de cette thèse de doctorat est de déterminer, à l’aide d’une grille d’observation des comportements parentaux après la séparation , si des catégories de la grille permettent de distinguer entre eux les couples parentaux où le risque de Détérioration du Lien Parent-Enfant en contexte de séparation conflictuelle (DLPE) est très élevé des couples parentaux où le risque de DLPE est très faible. De plus, trois objectifs secondaires s’ajoutent à notre objectif principal. Premièrement, nous avons tenté de voir s’il était possible de prédire les cas où les risques de DLPE sont très élevés. Deuxièmement, nous avons exploré comment la DLPE s’inscrit dans les conséquences pouvant découler de la séparation parentale. Et enfin, troisièmement, nous avons brièvement exploré la question des allégations d’agression sexuelle envers l’enfant dans les contextes de DLPE. Cette thèse est composée de deux articles et d’une note de recherche brève. Le premier article s’intitule En quoi et pourquoi les hommes et les femmes sont-ils affectés différemment par la séparation conjugale? Cet article est une recension critique de la littérature traitant des conséquences du divorce chez les adultes ainsi que des conséquences différentielles du divorce pour les hommes et les femmes. Dans cet article, des hypothèses explicatives quant à l’origine de ces diverses conséquences sont discutées et nous proposons de les conceptualiser sous la forme d’un éventail rendant compte des impacts tant positifs que négatifs, notamment à une extrémité du continuum où se retrouvent les dynamiques DLPE. Ce continuum sur lequel s’inscrit la DLPE permet de conceptualiser et de discuter de l’adaptation ou de la mésadaptation des individus face à la séparation. Dans cet article, notre regard sur la DLPE fait ressortir les lacunes de la recherche actuelle sur ce phénomène. Il ressort un manque flagrant de connaissances du contexte d’apparition du phénomène, de connaissances empiriques sur la question des allégations d’abus sexuel se produisant dans le cadre de telles dynamiques ainsi que de connaissances des caractéristiques et des comportements des individus qui y sont impliqués. Conséquemment, notre article met l’emphase sur la nécessité qu’une tradition de recherche se développe dans le domaine de la DLPE afin de clarifier tous ces aspects. Enfin, cet article met en lumière différents facteurs de risque et différents facteurs de protection susceptibles d’expliquer que le divorce ait des conséquences différentes chez les hommes et les femmes. Le deuxième article s’intitule Étude exploratoire des caractéristiques et des comportements de couples parentaux séparés engagés dans une dynamique de Détérioration du Lien Parent-Enfant. Cet article cherchait à déterminer si les couples parentaux séparés hautement à risque d’être engagés dans une dynamique de DLPE se distinguent des couples parentaux séparés dont le risque de DLPE est faible sur certaines variables. Nous avons étudié cette question auprès de notre échantillon de 82 couples parentaux séparés pour lesquels le risque de DLPE est évalué comme étant soit très faible (groupe de comparaison) ou soit très élevé (en tenant compte du fait que la mère ou le père soit le parent dénigrant). À cette fin, nous avons utilisé un instrument de mesure, la Grille d’observation de la Détérioration du Lien Parent-Enfant après la séparation (GODLPE), adapté de celui développé par Johnston, Walters, & Olesen, (2005). Les résultats obtenus à l’aide de tests d’analyse de variance et de khi-deux démontrent que les ex-couples du groupe de comparaison se distinguent des ex-couples du groupe où le risque de DLPE est très élevé par un mariage significativement plus long et un niveau de conflit plus élevé. Également, les résultats démontrent que les parents du groupe de comparaison, les parents dénigrés et les parents dénigrants se distinguent entre eux quant à leurs comportements coparentaux aliénants, à leur relation coparentale supportante, à leur relation coparentale méfiante et à leurs comportements de renversement de rôle. Finalement, notre étude révèle que la durée du mariage et l’intensité des conflits permettent de prédire le risque de DLPE. La note de recherche brève s’intitule Étude exploratoire des allégations d’agression sexuelle envers l’enfant dans un contexte de Détérioration du Lien Parent-Enfant. Cet note de recherche s’intéresse à ce qui a longtemps été considéré comme l’une des caractéristiques déterminantes des dynamiques de DLPE, soit les allégations d’agression sexuelle envers l’enfant professées par un parent à l’endroit de l’autre parent ou d’un membre de son entourage proche. Nous avons étudié cette question chez 82 couples parentaux séparés pour lesquels le risque de DLPE était évalué comme étant très faible ou très élevé. Les résultats indiquent qu’il n’existe aucune différence significative entre les groupes relativement à cette caractéristique. Cependant, les mères auraient davantage tendance à alléguer de tels abus que les pères. Enfin, aucune des allégations professées n’a été jugée suffisamment crédible pour que la Directeur de la protection de la Jeunesse (DPJ) juge nécessaire d’intervenir. Plusieurs hypothèses sont soulevées pour expliquer ces résultats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire (CEO) est le cancer gynécologique le plus létal. Plus de 70% des patientes diagnostiquées avec une tumeur de stade avancé rechutent suite aux traitements chimiothérapeutiques de première ligne, la survie à cinq ans étant ainsi très faible. Afin de mieux comprendre l’évolution de la maladie, nous avons recherché de nouveaux gènes, responsables de l’initiation et de la progression du CEO. Précédemment, des lignées cellulaires ont été dérivées à partir de la tumeur primaire et récurrente et/ou d’ascites de trois patientes. Le séquençage de l’ARN de ces lignées par la technologie de séquençage de nouvelle génération (TSNG) nous a permis d’identifier des mutations ponctuelles qui pourraient nous indiquer des gènes dérégulés dans le CEO. La TSNG est un bon outil qui permet d’identifier et de cribler à grande échelle des mutations. Nous avons sélectionné PLEC1, SCRIB, NCOR2, SEMA6C, IKBKB, GLCE et ITGAE comme gènes candidats présentant des mutations dans nos lignées et ayant une relation fonctionnelle avérée avec le cancer. Étant donné que la TSNG est une technique à taux de fiabilité limité, nous avons validé ces mutations par séquençage Sanger. Ensuite, nous avons étudié l’effet de ces mutations sur la structure protéique et l’expression de PLEC1, de SCRIB et de SEMA6C. Seules certaines mutations dans les gènes PLEC1, SCRIB et SEMA6C ont pu être confirmées. PLEC1 et SCRIB sont deux protéines d’échafaudage dont la mutation, rapportée dans plusieurs cancers, pourrait induire des changements de leurs conformations et affecter leurs interactions et leurs fonctions. Les conséquences de ces mutations sur la tumorigenèse de l’ovaire devront être étudiées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous présentons la découverte de quatorze nouveaux systèmes binaires ayant une séparation supérieure à 250 UA et dont au moins l'une des composantes est une naine M ou une naine L. Ces systèmes ont d'abord été identifiés en cherchant des objets ayant un mouvement propre commun autour d'étoiles connues possédant un mouvement propre élevé, grâce à une corrélation croisée de grands relevés du ciel dans l'infrarouge proche (2MASS, SDSS et SIMP). Un suivi astrométrique, afin de confirmer le mouvement propre commun, a été réalisé sur toutes les cibles avec la caméra SIMON et/ou la caméra CPAPIR à l'Observatoire du Mont-Mégatic (OMM) ou à l'Observatoire interaméricain du Cerro Tololo (CTIO). Un suivi spectroscopique a aussi été effectué sur la plupart des compagnons avec GMOS ou GNIRS à Gemini afin de déterminer leurs types spectraux. La probabilité que deux objets forment un système binaire par hasard a été évaluée afin de s'assurer que les couples candidats que nous présentons soient réellement liés.Un de nos nouveaux systèmes a un compagnon de masse sous-stellaire : 2M1259+1001 (L4.5). L'étude des systèmes que nous avons découverts pourra, entre autre, nous aider à mieux comprendre les mécanismes de formation des étoiles de très faible masse et des naines brunes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les propriétés hydrauliques d’un till du Nord du Québec en condition saturée et non saturée ont été étudiées en laboratoire à l’aide de l’essai de conductivité hydraulique et l’essai de succion qui permet d’obtenir la courbe de rétention d’eau. Les essais ont été réalisés avec des échantillons compactés sous différentes conditions de teneur en eau et de masse volumique sèche, de manière à évaluer l’influence de ces conditions sur les propriétés hydrauliques. Les études précédentes ont montré qu’une structure agrégée se développe dans le till lorsqu’il est compacté de côté sec de l’optimum Proctor, c’est-à-dire à un degré de saturation de compactage inférieur au degré de saturation optimum (Sr0 < Sr-opt). Le till étudié dans le cadre de cette étude diffère de ceux utilisés dans les études précédentes par son très faible pourcentage de particules argileuses (< 2 μm) de 0,7%. L’objectif principal de cette étude est d’évaluer l’influence des conditions de compactage sur la conductivité hydraulique et la courbe de rétention d’eau et de déterminer si une structure agrégée se développe lorsque le till est compacté du côté sec de l’optimum. Les résultats expérimentaux typiques de la conductivité hydraulique saturée obtenus pour les échantillons compactés du côté humide de l’optimum (Sr0 > Sr-opt) avec un indice des vides de 0,328 varient de 2,6 x 10-7 à 8,6 x 10-7 m/s. Les conductivités hydrauliques typiques obtenues pour les échantillons compactés du côté sec de l’optimum (Sr0 < Sr-opt) avec le même indice des vides étaient très similaires, variant entre 2,4 x 10-7 et 9,1 x 10-7 m/s. Les courbes de rétention d’eau mesurées en laboratoire sont très semblables entre elles, présentant toutes une structure de sol homogène, peu importe si l’échantillon a été compacté du côté sec ou du côté humide. Il apparait que la conductivité hydraulique et la courbe de rétention d’eau de ce till sont très peu influencées par le degré de saturation de compactage. Ceci peut être expliqué par le très faible pourcentage de particules argileuses, qui prévient la formation d’agrégations de particules dans la structure du till lorsqu’il est compacté du côté sec de l’optimum Proctor. Plusieurs modèles d’estimation de la conductivité hydraulique sont utilisés. Cette étude propose trois nouveaux modèles d’estimation de la conductivité hydraulique saturée pour les tills du Nord du Québec. Le premier modèle met en relation la conductivité hydraulique saturée avec le diamètre des grains de la fraction fine (d50 FF) et le deuxième modèle est une équation modifiée de Kozeny-Carman et Hazen basée sur la porosité et une taille de particule effective (d10). Finalement, un modèle permettant d’évaluer l’effet de l’agrégation avec l’équation de Kozeny-Carman modifiée dans les tills compactés est proposé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Prenant la flore et la végétation comme des indicateurs du climat local, on fait une analyse abrégée de l'influence atlantique sur quatre montagnes portugaises, s¡tuées au sud du fleuve Tage, en plain domaine méditerranéen. Elles sont distríbuées depuis le nord-est de l‘Alentejo jusqu’a l’extreme sud-ouest du territoire.L'observation des données floristiques a montré que la dominance des espéces méditerrennes est générale, bien que entre un mínimum de 34.0% à S. Mamede et un maximum de 48.9 % à Portel. On a vérifié aussi, en commun, un trés faible degré d'endémisme, lequel atteint la valeur la plus élevée -1.2%-, dans la montagne de Monchique.