10 resultados para Imagerie
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette thèse a pour sujet le développement d’un détecteur à fibre scintillante plastique pour la dosimétrie des faisceaux de photons de basses énergies. L’objectif principal du projet consiste à concevoir et caractériser cet instrument en vue de mesurer la dose de radiation reçue au cours des examens d’imagerie diagnostique et interventionnelle. La première section est consacrée à la conception de six différents systèmes et à l’évaluation de leur performance lorsqu’ils sont exposés à des rayonnements de hautes et basses énergies. Tous les systèmes évalués présentaient un écart type relatif (RSD) de moins de 5 % lorsqu’ils étaient exposés à des débits de dose de plus de 3 mGy/s. Cette approche systématique a permis de déterminer que le tube photomultiplicateur répondait le mieux aux conditions d’exposition propres à la radiologie. Ce dernier présentait une RSD de moins de 1 % lorsque le débit de dose était inférieur à 0.10 mGy/s. L’étude des résultats permis également de suggérer quelques recommandations dans le choix d’un système en fonction de l’application recherchée. La seconde partie concerne l’application de ce détecteur à la radiologie interventionnelle en procédant à des mesures de dose à la surface d’un fantôme anthropomorphique. Ainsi, plusieurs situations cliniques ont été reproduites afin d’observer la précision et la fiabilité du détecteur. Ce dernier conserva une RSD inférieure à 2 % lorsque le débit de dose était supérieur à 3 mGy/min et d’environ 10 % au débit le plus faible (0.25 mGy/min). Les mesures sur fantôme montrèrent une différence de moins de 4 % entre les mesures du détecteur et celles d’une chambre d’ionisation lors du déplacement de la table ou du bras de l’appareil de fluoroscopie. Par ailleurs, cette différence est demeurée sous les 2 % lors des mesures de débit de dose en profondeur. Le dernier sujet de cette thèse porta sur les fondements physiques de la scintillation dans les scintillateurs plastiques. Les différents facteurs influençant l’émission lumineuse ont été analysés afin d’identifier leur contribution respective. Ainsi, la réponse du détecteur augmente de près d’un facteur 4 entre un faisceau de 20 kVp et 250 kVp. De ce signal, la contribution de la fluorescence produite dans la fibre claire était inférieure à 0.5 % lorsque les fibres étaient exposées sur 10 cm par des faisceaux de 20 à 250 kVp. Le phénomène d’extinction de la fluorescence par ionisation a également été étudié. Ainsi, l’atténuation du signal variait en fonction de l’énergie du faisceau et atteignit environ 20 % pour un faisceau de 20 kVp. En conclusion, cette étude suggère que les détecteurs à fibres scintillantes peuvent mesurer avec précision la dose de radiation reçue en imagerie diagnostique et interventionnelle, mais une calibration rigoureuse s’avère essentielle.
Resumo:
Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.
Resumo:
L’imagerie hyperspectrale (HSI) fournit de l’information spatiale et spectrale concernant l’émissivité de la surface des matériaux, ce qui peut être utilisée pour l’identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d’un minéral, est nécessaire. L’objectif principal de ce projet est l’identification des minéraux par imagerie hyperspectrale. Les informations de l’imagerie hyperspectrale ont été enregistrées à partir de l’énergie réfléchie de la surface du minéral. L’énergie solaire est la source d’énergie dans l’imagerie hyperspectrale de télédétection, alors qu’un élément chauffant est la source d’énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d’expériences ont été menées dans différentes plages de longueurs d’onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l’ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d’apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d’échantillons ont été utilisés dans ce projet. Le système d’ELM est divisé en deux parties, la phase d’entraînement et la phase de test du système. Dans la phase d’entraînement, la signature d’un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d’entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
L’Ataxie spastique autosomale récessive de Charlevoix-Saguenay (ARSACS) est un syndrome héréditaire précoce caractérisé par un tableau clinique particulier incluant des anomalies oculaires. Quatorze ARSACS et 36 témoins sains ont été suivis prospectivement durant 20 mois et ont subi différents tests neuro-ophtalmologiques et des mesures par tomographie par cohérence optique. Des augmentations de l’épaisseur moyenne de la couche de fibres nerveuses (mRNFL), de l’épaisseur fovéolaire centrale et de l’épaisseur moyenne du cube maculaire (CAT) ont été mises en évidence chez les ARSACS en comparaison avec les témoins (p<0,0001 à toutes les séances). Une différence cliniquement significative a été observée dans l’évolution au cours du suivi des épaisseurs de la mRNFL et la CAT des ARSACS par rapport aux contrôles (p=0,030, p=0,026 respectivement), et ces paramètres étaient inversement corrélés avec le degré de sévérité de la maladie, suggérant une diminution d’épaisseur de la mRNFL et de la CAT à mesure que progresse la maladie.
Resumo:
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Depuis ces dernières décennies, le domaine des biomatériaux a connu un essor considérable, évoluant de simples prothèses aux dispositifs les plus complexes pouvant détenir une bioactivité spécifique. Outre, le progrès en science des matériaux et une meilleure compréhension des systèmes biologiques a offert la possibilité de créer des matériaux synthétiques pouvant moduler et stimuler une réponse biologique déterminée, tout en améliorant considérablement la performance clinique des biomatériaux. En ce qui concerne les dispositifs cardiovasculaires, divers recouvrements ont été développés et étudiés dans le but de modifier les propriétés de surface et d’améliorer l’efficacité clinique des tuteurs. En effet, lorsqu’un dispositif médical est implanté dans le corps humain, son succès clinique est fortement influencé par les premières interactions que sa surface établit avec les tissus et les fluides biologiques environnants. Le recouvrement à la surface de biomatériaux par diverses molécules ayant des propriétés complémentaires constitue une approche intéressante pour atteindre différentes cibles biologiques et orienter la réponse de l’hôte. De ce fait, l’élucidation de l’interaction entre les différentes molécules composant les recouvrements est pertinente pour prédire la conservation de leurs propriétés biologiques spécifiques. Dans ce travail, des recouvrements pour des applications cardiovasculaires ont été créés, composés de deux molécules ayant des propriétés biologiques complémentaires : la fibronectine (FN) afin de promouvoir l’endothélialisation et la phosphorylcholine (PRC) pour favoriser l’hémocompatibilité. Des techniques d’adsorption et de greffage ont été appliquées pour créer différents recouvrements de ces deux biomolécules sur un polymère fluorocarboné déposé par traitement plasma sur un substrat en acier inoxydable. Dans un premier temps, des films de polytétrafluoroéthylène (PTFE) ont été utilisés en tant que surface modèle afin d’explorer l’interaction de la PRC et de la FN avec les surfaces fluorocarbonées ainsi qu’avec des cellules endothéliales et du sang. La stabilité des recouvrements de FN sur l’acier inoxydable a été étudiée par déformation, mais également par des essais statiques et dynamiques sous-flux. Les recouvrements ont été caractérisés par Spectroscopie Photoéléctronique par Rayons X, immunomarquage, angle de contact, Microscopie Électronique de Balayage, Microscopie de Force Atomique et Spectrométrie de Masse à Ionisation Secondaire à Temps de Vol (imagerie et profilage en profondeur). Des tests d’hémocompatibilité ont été effectués et l’interaction des cellules endothéliales avec les recouvrements a également été évaluée. La FN greffée a présenté des recouvrements plus denses et homogènes alors que la PRC quant à elle, a montré une meilleure homogénéité lorsqu’elle était adsorbée. La caractérisation de la surface des échantillons contenant FN/PRC a été corrélée aux propriétés biologiques et les recouvrements pour lesquels la FN a été greffée suivie de l’adsorption de la PRC ont présenté les meilleurs résultats pour des applications cardiovasculaires : la promotion de l’endothélialisation et des propriétés d’hémocompatibilité. Concernant les tests de stabilité, les recouvrements de FN greffée ont présenté une plus grande stabilité et densité que dans le cas de l’adsorption. En effet, la pertinence de présenter des investigations des essais sous-flux versus des essais statiques ainsi que la comparaison des différentes stratégies pour créer des recouvrements a été mis en évidence. D’autres expériences sont nécessaires pour étudier la stabilité des recouvrements de PRC et de mieux prédire son interaction avec des tissus in vivo.
Resumo:
Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.
Resumo:
L’estimation de la douleur chez autrui peut être influencée par différents facteurs liés à la personne en douleur, à l’observateur ou bien à l’interaction entre ces derniers. Parmi ces facteurs, l’exposition répétée à la douleur d’autrui, dans les milieux de soins ou dans une relation dans laquelle un des deux conjoints souffre de douleur chronique, a souvent été liée à une sous-estimation de la douleur d’autrui. L’objectif de cette thèse visait à mesurer les impacts de l’exposition répétée à la douleur d’autrui sur l’estimation subséquente de la douleur des autres, mais aussi sur l’activité cérébrale lors de l’observation de la douleur d’autrui et finalement, sur l’estimation de la douleur chez les conjoints de patients atteints de douleur chronique. La première étude expérimentale a permis d’isoler le facteur d’exposition répétée à la douleur d’autrui des autres facteurs confondants pouvant moduler l’estimation de la douleur d’autrui. Ainsi, il a été démontré que l’exposition répétée à la douleur d’autrui diminuait l’évaluation subséquente de la douleur des autres. Dans la seconde étude, il a été démontré en imagerie par résonance magnétique fonctionnelle que l’exposition répétée à la douleur d’autrui entrainait des changements dans l’activité cérébrale de certaines régions associées au traitement affectif (l’insula bilatérale), mais aussi cognitif de la douleur (sulcus temporal supérieur ; précunéus), lors de l’observation de la douleur d’autrui. Finalement, la troisième étude expérimentale, celle-ci proposant une visée plus clinique, a permis de démontrer que les conjoints de patients atteints de douleur chronique ne surestiment pas la douleur de leur conjoint, mais qu’ils perçoivent de la douleur même dans des expressions faciales neutres. L’ensemble de ces résultats suggère que chez les sujets sains, l’exposition répétée à la douleur d’autrui entraine une sous-estimation de la douleur chez l’autre et des changements dans le réseau de la matrice de la douleur lors de l’observation de la douleur des autres. En définitive, ces résultats démontrent que l’exposition répétée à la douleur d’autrui, dans un contexte expérimental, a des impacts majeurs sur l’observateur et son jugement de l’intensité de la douleur.