886 resultados para Transduction du signal
Resumo:
Cardiovascular disease is the leading cause of death worldwide. Within this subset, coronary artery disease (CAD) is the most prevalent. Magnetic resonance angiography (MRA) is an emerging technique that provides a safe, non-invasive way of assessing CAD progression. To generate contrast between tissues, MR images are weighted according to the magnetic properties of those tissues. In cardiac MRI, T2 contrast, which is governed by the rate of transverse signal loss, is often created through the use of a T2-Preparation module. T2-Preparation, or T2-Prep, is a magnetization preparation scheme used to improve blood/myocardium contrast in cardiac MRI. T2-Prep methods generally use a non-selective +90°, 180°, 180°, -90° train of radiofrequency (RF) pulses (or variant thereof), to tip magnetization into the transverse plane, allow it to evolve, and then to restore it to the longitudinal plane. A key feature in this process is the combination of a +90° and -90° RF pulse. By changing either one of these, a mismatch occurs between signal excitation and restoration. This feature can be exploited to provide additional spectral or spatial selectivity. In this work, both of these possibilities are explored. The first - spectral selectivity - has been examined as a method of improving fat saturation in coronary MRA. The second - spatial selectivity - has been examined as a means of reducing imaging time by decreasing the field of view, and as a method of reducing artefacts originating from the tissues surrounding the heart. Two additional applications, parallel imaging and self-navigation, are also presented. This thesis is thus composed of four sections. The first, "A Fat Signal Suppression for Coronary MRA at 3T using a Water-Selective Adiabatic T2-Preparation Technique", was originally published in the journal Magnetic Resonance in Medicine (MRM) with co-authors Ruud B. van Heeswijk and Matthias Stuber. The second, "Combined T2-Preparation and 2D Pencil Beam Inner Volume Selection", again with co-authors Ruud van Heeswijk and Matthias Stuber, was also published in the journal MRM. The third, "A cylindrical, inner volume selecting 2D-T2-Prep improves GRAPPA-accelerated image quality in MRA of the right coronary artery", written with co-authors Jerome Yerly and Matthias Stuber, has been submitted to the "Journal of Cardiovascular Magnetic Resonance", and the fourth, "Combined respiratory self-navigation and 'pencil-beam' 2D-T2 -Prep for free-breathing, whole-heart coronary MRA", with co¬authors Jerome Chaptinel, Giulia Ginami, Gabriele Bonanno, Simone Coppo, Ruud van Heeswijk, Davide Piccini, and Matthias Stuber, is undergoing internal review prior to submission to the journal MRM. -- Les maladies cardiovasculaires sont la cause principale de décès dans le monde : parmi celles-ci, les maladies coronariennes sont les plus répandues. L'angiographie par résonance magnétique (ARM) est une technique émergente qui fournit une manière sûre, non invasive d'évaluer la progression de la coronaropathie. Pour obtenir un contraste entre les tissus, les images d'IRM sont pondérées en fonction des propriétés magnétiques de ces tissus. En IRM cardiaque, le contraste en T2, qui est lié à la décroissance du signal transversal, est souvent créé grâce à l'utilisàtion d'un module de préparation T2. La préparation T2, ou T2-Prep, est un système de préparation de l'aimantation qui est utilisé pour améliorer le contraste entre le sang et le myocarde lors d'une IRM cardiaque. Les méthodes de T2-Prep utilisent généralement une série non-sélective d'impulsions de radiofréquence (RF), typiquement [+ 90°, 180°, 180°, -90°] ou une variante, qui bascule l'aimantation dans le plan transversal, lui permet d'évoluer, puis la restaure dans le plan longitudinal. Un élément clé de ce processus est la combinaison des impulsions RF de +90° et -90°. En changeant l'une ou l'autre des impulsions, un décalage se produit entre l'excitation du signal et de la restauration. Cette fonction peut être exploitée pour fournir une sélectivité spectrale ou spatiale. Dans cette thèse, les deux possibilités sont explorées. La première - la sélectivité spectrale - a été examinée comme une méthode d'améliorer la saturation de la graisse dans l'IRM coronarienne. La deuxième - la sélectivité spatiale - a été étudiée comme un moyen de réduire le temps d'imagerie en diminuant le champ de vue, et comme une méthode de réduction des artefacts provenant des tissus entourant le coeur. Deux applications supplémentaires, l'imagerie parallèle et la self-navigation, sont également présentées. Cette thèse est ainsi composée de quatre sections. La première, "A Fat Signal Suppression for Coronary MRA at 3T using a Water-Selective Adiabatic T2-Preparation Technique", a été publiée dans la revue médicale Magnetic Resonance .in Medicine (MRM) avec les co-auteurs Ruud B. van Heeswijk et Matthias Stuber. La deuxième, Combined T2-Preparation and 2D Pencil Beam Inner Volume Selection", encore une fois avec les co-auteurs Ruud van Heeswijk et Matthias Stuber, a également été publiée dans le journal MRM. La troisième, "A cylindrical, inner volume selecting 2D-T2-Prep improves GRAPPA- accelerated image quality in MRA of the right coronary artery", écrite avec les co-auteurs Jérôme Yerly et Matthias Stuber, a été présentée au "Journal of Cardiovascular Magnetic Resonance", et la quatrième, "Combined respiratory self-navigation and 'pencil-beam' 2D-T2 -Prep for free-breathing, whole-heart coronary MRA", avec les co-auteurs Jérôme Chaptinel, Giulia Ginami, Gabriele Bonanno , Simone Coppo, Ruud van Heeswijk, Davide Piccini, et Matthias Stuber, subit un examen interne avant la soumission à la revue MRM.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.
Resumo:
La consolidation est le processus qui transforme une nouvelle trace mnésique labile en une autre plus stable et plus solide. Une des tâches utilisées en laboratoire pour l’exploration de la consolidation motrice dans ses dimensions comportementale et cérébrale est la tâche d’apprentissage de séquences motrices. Celle-ci consiste à reproduire une même série de mouvements des doigts, apprise de manière implicite ou explicite, tout en mesurant l’amélioration dans l’exécution. Les études récentes ont montré que, dans le cas de l’apprentissage explicite de cette tâche, la consolidation de la trace mnésique associée à cette nouvelle habileté dépendrait du sommeil, et plus particulièrement des fuseaux en sommeil lent. Et bien que deux types de fuseaux aient été décrits (lents et rapides), le rôle de chacun d’eux dans la consolidation d’une séquence motrice est encore mal exploré. En effet, seule une étude s’est intéressée à ce rôle, montrant alors une implication des fuseaux rapides dans ce processus mnésique suite à une nuit artificiellement altérée. D’autre part, les études utilisant l’imagerie fonctionnelle (IRMf et PET scan) menées par différentes équipes dont la notre, ont montré des changements au niveau de l’activité du système cortico-striatal suite à la consolidation motrice. Cependant, aucune corrélation n’a été faite à ce jour entre ces changements et les caractéristiques des fuseaux du sommeil survenant au cours de la nuit suivant un apprentissage moteur. Les objectifs de cette thèse étaient donc: 1) de déterminer, à travers des enregistrements polysomnographiques et des analyses corrélationnelles, les caractéristiques des deux types de fuseaux (i.e. lents et rapides) associées à la consolidation d’une séquence motrice suite à une nuit de sommeil non altérée, et 2) d’explorer, à travers des analyses corrélationnelles entre les données polysomnographiques et le signal BOLD (« Blood Oxygenated Level Dependent »), acquis à l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), l’association entre les fuseaux du sommeil et les activations cérébrales suite à la consolidation de la séquence motrice. Les résultats de notre première étude ont montré une implication des fuseaux rapides, et non des fuseaux lents, dans la consolidation d’une séquence motrice apprise de manière explicite après une nuit de sommeil non altérée, corroborant ainsi les résultats des études antérieures utilisant des nuits de sommeil altérées. En effet, les analyses statistiques ont mis en évidence une augmentation significative de la densité des fuseaux rapides durant la nuit suivant l’apprentissage moteur par comparaison à la nuit contrôle. De plus, cette augmentation corrélait avec les gains spontanés de performance suivant la nuit. Par ailleurs, les résultats de notre seconde étude ont mis en évidence des corrélations significatives entre l’amplitude des fuseaux de la nuit expérimentale d’une part et les gains spontanés de performance ainsi que les changements du signal BOLD au niveau du système cortico-striatal d’autre part. Nos résultats suggèrent donc un lien fonctionnel entre les fuseaux du sommeil, les gains de performance ainsi que les changements neuronaux au niveau du système cortico-striatal liés à la consolidation d’une séquence motrice explicite. Par ailleurs, ils supportent l’implication des fuseaux rapides dans ce type de consolidation ; ceux-ci aideraient à l’activation des circuits neuronaux impliqués dans ce processus mnésique et amélioreraient par la même occasion la consolidation motrice liée au sommeil.
Resumo:
La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.
Resumo:
L’oxydoréduction de monocouches auto-assemblées (SAMs) de ferrocénylalcanethiolates à la surface d’or (FcRSAu) a été étudiée en temps réel par la spectroscopie de résonance de plasmons de surface couplée avec l’électrochimie (E-SPR). La sensibilité de cette technique permet de déterminer des changements d’épaisseur de couche l’ordre de quelques angström résultant d’un changement de structure de la SAM. Plusieurs études antérieures ont proposé que l’oxydation électrochimique d’une SAM de FcRSAu induit une réorientation moléculaire. L’E-SPR est utilisé pour identifier l’origine de ce changement structurel. D’abord, une calibration du réfractomètre SPR utilisé a été effectuée afin de trouver une équation de conversion du signal SPR obtenu en pixel en angle d’incidence pour que l’on puisse calculer le changement d’épaisseur de monocouche à partir du changement d’angle de résonance avec le modèle de Fresnel. Par la suite, une caractérisation approfondie des SAMs de FcCnSAu (où n = 6, 8, 12, 14) en contact avec du NaClO4 acidifié a été réalisée par électrochimie, éllipsométrie, spectroscopie infrarouge et microscopie à force atomique. Les résultats obtenus montrent que l’augmentation de la longueur des chaînes alkyles donne des SAMs de ferrocènes plus épaisses et moins désordonnées. L’analyse par l’E-SPR de ces SAMs pures montre que le changement d’épaisseur induit par l’électro-oxydation dépend linéairement du nombre de méthylènes sur la chaîne alkyle. En appliquant la déconvolution mathématique aux voltampérogrammes cycliques enregistrés pour les SAM mixtes (FcC12SAu/C11SAu) de différentes compositions, on arrive à la conclusion qu’il y a un redressement des chaînes alkyles dans les domaines des ferrocènes agrégés mais la réorientation des têtes de ferrocène dans les domaines de ferrocènes agrégés ou dispersés ne peut pas être exclue. Enfin, l’effet de l’anion électrolytique sur le changement d’épaisseur de la SAM mesuré par l’E-SPR a été étudié. L’analyse électrochimique montre que la capacité de pairage d’anions avec les ferrocéniums décroit comme suit : PF6- > ClO4- > BF4- > NO3-. Tandis que l’épaisseur de la SAM donnée par le changement d’angle de résonance suit la tendance suivante : NO3- ≥ ClO4- > PF6- ≈ BF4-. Des études plus approfondies seront nécessaire pour clarifier cette tendance observée par E-SPR.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Les études d’imagerie par résonance magnétique fonctionnelle (IRMf) ont pour prémisse générale l’idée que le signal BOLD peut être utilisé comme un succédané direct de l’activation neurale. Les études portant sur le vieillissement cognitif souvent comparent directement l’amplitude et l’étendue du signal BOLD entre des groupes de personnes jeunes et âgés. Ces études comportent donc un a priori additionnel selon lequel la relation entre l’activité neurale et la réponse hémodynamique à laquelle cette activité donne lieu restent inchangée par le vieillissement. Cependant, le signal BOLD provient d’une combinaison ambiguë de changements de métabolisme oxydatif, de flux et de volume sanguin. De plus, certaines études ont démontré que plusieurs des facteurs influençant les propriétés du signal BOLD subissent des changements lors du vieillissement. L’acquisition d’information physiologiquement spécifique comme le flux sanguin cérébral et le métabolisme oxydatif permettrait de mieux comprendre les changements qui sous-tendent le contraste BOLD, ainsi que les altérations physiologiques et cognitives propres au vieillissement. Le travail présenté ici démontre l’application de nouvelles techniques permettant de mesurer le métabolisme oxydatif au repos, ainsi que pendant l’exécution d’une tâche. Ces techniques représentent des extensions de méthodes d’IRMf calibrée existantes. La première méthode présentée est une généralisation des modèles existants pour l’estimation du métabolisme oxydatif évoqué par une tâche, permettant de prendre en compte tant des changements arbitraires en flux sanguin que des changements en concentrations sanguine d’O2. Des améliorations en terme de robustesse et de précisions sont démontrées dans la matière grise et le cortex visuel lorsque cette méthode est combinée à une manipulation respiratoire incluant une composante d’hypercapnie et d’hyperoxie. Le seconde technique présentée ici est une extension de la première et utilise une combinaison de manipulations respiratoires incluant l’hypercapnie, l’hyperoxie et l’administration simultanée des deux afin d’obtenir des valeurs expérimentales de la fraction d’extraction d’oxygène et du métabolisme oxydatif au repos. Dans la deuxième partie de cette thèse, les changements vasculaires et métaboliques liés à l’âge sont explorés dans un groupe de jeunes et aînés, grâce au cadre conceptuel de l’IRMf calibrée, combiné à une manipulation respiratoire d’hypercapnie et une tâche modifiée de Stroop. Des changements de flux sanguin au repos, de réactivité vasculaire au CO2 et de paramètre de calibration M ont été identifiés chez les aînés. Les biais affectant les mesures de signal BOLD obtenues chez les participants âgés découlant de ces changements physiologiques sont de plus discutés. Finalement, la relation entre ces changements cérébraux et la performance dans la tâche de Stroop, la santé vasculaire centrale et la condition cardiovasculaire est explorée. Les résultats présentés ici sont en accord avec l’hypothèse selon laquelle une meilleure condition cardiovasculaire est associée à une meilleure fonction vasculaire centrale, contribuant ainsi à l’amélioration de la santé vasculaire cérébrale et cognitive.
Resumo:
Des études récentes ont montré que le noyau caudé interagissait avec le cortex préfrontal et qu’il pourrait être impliqué dans les fonctions exécutives. Le but de cette thèse était d’étudier la contribution du noyau caudé dans les fonctions exécutives, plus précisément dans des tâches de monitoring et de changement de règle, et d’observer comment ces régions fronto-striatales interagissent avec le réseau par défaut (RPD). Dans un premier temps, nous avons étudié le rôle du noyau caudé dans les deux types de monitoring : le monitoring d’origine interne, consistant à effectuer un suivi sur l’état de l’information en mémoire de travail afin de pouvoir faire un choix subséquent, et dans le monitoring d’origine externe où le suivi sur l’état des items est effectué par l’individu, mais la sélection est exécutée par une source externe. Il a été montré que le cortex préfrontal dorsolatéral (CPFDL) est impliqué dans les deux types de monitoring. À l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), nos résultats ont montré une augmentation significative du signal BOLD au niveau du CPFDL dans les contrastes des conditions de monitoring d’origine interne et monitoring d’origine externe par rapport à la condition contrôle. De manière plus importante, une augmentation significative de l’activité a été observée dans le noyau caudé seulement dans les soustractions impliquant le monitoring d’origine interne par rapport à la condition contrôle, et par rapport à la condition de monitoring d’origine externe. En deuxième lieu, des études ont montré une contribution spécifique des régions fronto-striatales dans l’exécution d’un changement de règle. Toutefois, l’effet d’un changement de règle sur l’activité cérébrale n’a jamais été étudié sur les essais subséquents. À l’aide de l’IRMf, le cortex préfrontal ventrolatéral (CPFVL) et le noyau caudé ont montré une augmentation significative de leur activité lors des changements de règle continus et lors des changements de règles sporadiques par rapport à la condition contrôle, et aussi lors des essais où le maintien d’une même règle devait être effectué pour une courte durée par opposition au contrôle. Cependant, aucune activité fronto-striatale n’a été observée lorsqu’une même règle devait être appliquée pour une plus longue période. De plus, une diminution significative de l’activité du noyau caudé a été observée lors de la répétition de l’exécution d’une même règle suggérant une meilleure intégration de cette dernière. Finalement, plusieurs études ont montré une déactivation du RPD lors de l’exécution de tâches. À l’aide de l’IRMf, nous avons posé l’hypothèse que le RPD serait corrélé négativement avec les régions fronto-striatales lors de l’exécution d’une tâche de changement de règle. Nos résultats montrent une augmentation significative de l’activité des régions fronto-striatales lors d’une augmentation du nombre d’essais de changement de règle consécutif, pendant que le RPD montre une déactivation continue. De façon intéressante, pendant que les régions fronto-striatales montrent une diminution de leur activité lors de l’exécution d’une même règle pour une longue période, le RPD augmente son activité de façon significative. On conclut donc que le noyau caudé joue un rôle important dans la planification d’une nouvelle action lorsque plusieurs possibilités doivent être considérées en mémoire de travail, et ce en même temps. Finalement, le RPD montre une corrélation négative avec les régions fronto-striatales suggérant sa participation dans l’intégration d’une tâche devenant de plus en plus familière.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.