9 resultados para Field-stepped direct detection
em Université de Montréal, Canada
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Au cours de la dernière décennie, le domaine de la fonctionnalisation directe des liens C–H a connu un intérêt croissant, en raison de la demande de processus chimiques moins dispendieux, plus efficaces et plus écologiques. . Les cyclopropanes représentent un motif structural souvent retrouvé dans des agents biologiquement actifs importants et dans des intermédiaires de synthèse permettant l'accès à des architectures complexes. Malgré leur valeur intrinsèque, la fonctionnalisation directe des cyclopropanes n’a pas été largement explorée. Ce mémoire traitera de deux méthodologies liées, mais tout aussi différentes, impliquant la fonctionnalisation directe des liens C–H cyclopropaniques impliquant des réactions intramoléculaires catalysées par un complex de palladium et assistées par l’argent. Le premier chapitre présentera d’abord un bref survol de la littérature sur les fondements de la fonctionnalisation directe ainsi que les contributions majeures réalisées dans ce domaine. L’accent sera notamment mis sur la fonctionnalisation des centres sp3 et sera souligné par des exemples pertinents. Les découvertes clés concernant le mécanisme et les cycles catalytiques de ces processus seront discutées. Le second chapitre décrira comment les 2-bromoanilides peuvent être utilisés pour accéder à des motifs particuliers de type spiro 3,3’ oxindoles cyclopropyliques. L'optimisation et l’étendue de la réaction seront abordés, suivis par des études mécanistiques réfutant l’hypothèse de la formation d’un intermédiaire palladium-énolate. Ces études mécanistiques comprennent une étude cinétique de l'effet isotopique ainsi que des études sur épimérisation; celles-ci ont confirmé que la réaction se produit par arylation directe. Sur la base des résultats obtenus dans le deuxième chapitre, nous aborderons ensuite la fonctionnalisation directe des benzamides cyclopropyliques lesquels, après une ouverture de cycle, donneront de nouveaux produits benzo [c] azépine-1-ones (chapitre trois). Après avoir présenté une brève optimisation et l’étendue de la réaction, nous discuterons des études mécanistiques impliquées à déduire l'ordre des événements dans le cycle catalytique et à déterminer le rôle des réactifs. Celles-ci permetteront de conclure que la fonctionnalisation de l’unité cyclopropyle se produit avant l’ouverture de cycle et que l'acétate est responsable de la déprotonation-métalation concertée. Le dernier chapitre (chapitre quatre) traitera en rétrospective de ce qui a été appris à partir de deux méthodologies divergentes et connexes et de comment ces résultats peuvent être exploités pour explorer d’autres types de fonctionnalisations directes sur des cyclopropanes.
Resumo:
Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
On s’intéresse aux impacts des pesticides sur la microflore des plantes surtout dans le contexte des légumes contaminés par des agents pathogènes. Le but de cette étude est d'évaluer l'impact de certains pesticides sur la persistance de micro-organismes indicateurs et pathogènes. En laboratoire, la persistance d’E. coli et de Salmonella en présence de quatre pesticides (Ripcord 400EC, Copper 53W, Bioprotec CAF, Serenade MAX) a été étudiée. Les plaques de Pétrifilm et le milieu sélectif XLD sont utilisés pour énumérer les populations d’E. coli et de Salmonella. Il a été démontré que le Serenade MAX favorisait la croissance microbienne, le Bioprotec CAF et le Ripcord 400EC soutenaient la survie microbienne et le Copper 53W inhibait la croissance, à la fois d’E. coli et de Salmonella. En conditions terrain, Ripcord 400EC, Copper 53W, Bioprotec CAF ont été étudiés sur une culture de brocoli irriguée avec de l'eau expérimentalement contaminée par E. coli. Dans tous les traitements, un impact de l’irrigation a été observé sur les populations de levures et de moisissures (diminution) et les bactéries aérobies totales (augmentation). Une prévalence supérieure d’E. coli a été observée dans les parcelles traitées avec le Bioprotec CAF comparativement aux traitements au Copper 53W, ce qui est en accord avec les résultats observés lors de l'essai en laboratoire. Cependant, l'analyse statistique n'a montré aucune différence significative entre les traitements appliqués. Les effets directs des pesticides sur les micro-organismes sont confirmés dans des conditions de laboratoire mais demeurent méconnus dans les conditions expérimentales au champ.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Les naines brunes sont, en termes de masse, les objets astrophysiques intermédiaires entre les planètes géantes gazeuses et les étoiles de faible masse. Elles se forment de la même manière que les étoiles, par contraction gravitationnelle d’un fragment de nuage de gaz moléculaire ayant atteint la limite de Jeans, mais se différencient par leur incapa- cité à produire les réactions de fusion de l’hydrogène dans leur cœur. Les naines brunes sont par conséquent des objets qui se refroidissent graduellement, et dont les propriétés spectrales évoluent au cours du temps. Ce mémoire présente la recherche de nouvelles candidates de type spectral T tardif et Y, dans le but de compléter le relevé des naines brunes du voisinage solaire. Cette recherche est motivée par deux objectifs principaux. Premièrement, un échantillon com- plet des objets de faible masse est nécessaire pour contraindre correctement la limite aux faibles masses de la fonction de masse initiale des nuages interstellaires, problème clé en astrophysique actuellement. Deuxièmement, les naines brunes de types spectraux tardifs sont les objets stellaires dont les propriétés atmosphériques sont les plus semblables à celles des planètes géantes gazeuses. Par conséquent, la recherche de nouvelles naines brunes permet indirectement d’améliorer nos connaissances des exoplanètes, sans être contraints par la proximité d’étoiles brillantes. À partir du WISE All-Sky Source Catalog, nous avons établi un échantillon de 55 candidates naines brunes répondant aux critères photométriques attendus. Parmi ces can- didates, 17 ont fait l’objet d’un suivi photométrique en bande J à l’Observatoire du Mont-Mégantic, et 9 ont pu être détectées. De ces 9 détections, 4 objets présentent des mouvements propres cohérents avec ceux de naines brunes.
Resumo:
La stimulation électrique transcrânienne à courant direct (tDCS) est une technique non invasive de neuromodulation qui modifie l’excitabilité corticale via deux grosses électrodes de surface. Les effets dépendent de la polarité du courant, anodique = augmentation de l’excitabilité corticale et cathodique = diminution. Chez l’humain, il n’existe pas de consensus sur des effets de la tDCS appliquée au cortex somatosensoriel primaire (S1) sur la perception somesthésique. Nous avons étudié la perception vibrotactile (20 Hz, amplitudes variées) sur le majeur avant, pendant et après la tDCS appliquée au S1 controlatéral (anodale, a; cathodale, c; sham, s). Notre hypothèse « shift-gain » a prédit une diminution des seuils de détection et de discrimination pour la tDCS-a (déplacement vers la gauche de la courbe stimulus-réponse et une augmentation de sa pente). On attendait les effets opposés avec la tDCS-c, soit une augmentation des seuils (déplacement à droite et diminution de la pente). Chez la majorité des participants, des diminutions des seuils ont été observées pendant et immédiatement suivant la tDCS-a (1 mA, 20 min) en comparaison à la stimulation sham. Les effets n’étaient plus présents 30 min plus tard. Une diminution du seuil de discrimination a également été observée pendant, mais non après la tDCS-c (aucun effet pour détection). Nos résultats supportent notre hypothèse, uniquement pour la tDCS-a. Une suite logique serait d’étudier si des séances répétées de tDCS-a mènent à des améliorations durables sur la perception tactile. Ceci serait bénéfique pour la réadaptation sensorielle (ex. suite à un accident vasculaire cérébral).
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.