910 resultados para SMOKE DETECTORS
Resumo:
L’athérosclérose est la principale cause d’infarctus du myocarde, de mort subite d’origine cardiaque, d’accidents vasculaires cérébraux et d’ischémie des membres inférieurs. Celle-ci cause près de la moitié des décès dans les pays industrialisés. Lorsque les obstructions artérielles athérosclérotiques sont tellement importantes que les techniques de revascularisation directe ne peuvent être effectuées avec succès, la sévérité de l’ischémie tissulaire résiduelle dépendra de l’habilité de l’organisme à développer spontanément de nouveaux vaisseaux sanguins (néovascularisation). La néovascularisation postnatale est le résultat de deux phénomènes : la formation de nouveaux vaisseaux à partir de la vasculature existante (angiogenèse) et la formation de vaisseaux à partir de cellules souches progénitrices (vasculogenèse). Notre laboratoire a démontré que plusieurs facteurs de risque associés aux maladies cardiovasculaires (tabagisme, vieillissement, hypercholestérolémie) diminuaient également la réponse angiogénique suite à une ischémie. Cependant, les mécanismes précis impliqués dans cette physiopathologie sont encore inconnus. Un point commun à tous ces facteurs de risque cardiovasculaire est l’augmentation du stress oxydant. Ainsi, le présent ouvrage visait à élucider l’influence de différents facteurs de risque cardiovasculaire et du stress oxydant sur la néovascularisation. Nos résultats démontrent que l’exposition à la fumée de cigarette et le vieillissement sont associés à une diminution de la néovascularisation en réponse à l’ischémie, et que ceci est au moins en partie causé par une augmentation du stress oxydant. De plus, nous démontrons que les acides gras dérivés de la diète peuvent affecter la réponse à l’ischémie tissulaire. La première étude du projet de recherche visait à évaluer l’impact de l’exposition à la fumée de cigarette sur la néovascularisation post-ischémique, et l’effet d’une thérapie antioxydante. L’exposition à la fumée de cigarette a été associée à une réduction significative de la récupération du flot sanguin et de la densité des vaisseaux dans les muscles ischémiques. Cependant, une récupération complète de la néovascularisation a été démontrée chez les souris exposées à la fumée de cigarette et traitées au probucol ou aux vitamines antioxydantes. Nous avons démontré qu’une thérapie antioxydante administrée aux souris exposées à la fumée de cigarette était associée à une réduction significative des niveaux de stress oxydant dans le plasma et dans les muscles ischémiques. De plus, les cellules endothéliales progénitrices (EPCs) exposées à de l’extrait de fumée de cigarette in vitro présentent une diminution significative de leur activité angiogénique (migration, adhésion et incorporation dans les tissus ischémiques) qui a été complètement récupérée par le probucol et les vitamines antioxydantes. La deuxième étude avait pour but d’investiguer le rôle potentiel de la NADPH oxydase (Nox2) pour la modulation de la néovascularisation post-ischémique dans le contexte du vieillissement. Nous avons trouvé que l’expression de la Nox2 est augmentée par le vieillissement dans les muscles ischémiques des souris contrôles. Ceci est associé à une réduction significative de la récupération du flot sanguin après l’ischémie chez les vieilles souris contrôles comparées aux jeunes. Nous avons aussi démontré que la densité des capillaires et des artérioles est significativement réduite dans les muscles ischémiques des animaux vieillissants alors que les niveaux de stress oxydant sont augmentés. La déficience en Nox2 réduit les niveaux de stress oxydant dans les tissus ischémiques et améliore la récupération du flot sanguin et la densité vasculaire chez les animaux vieillissants. Nous avons aussi démontré que l’activité fonctionnelle des EPCs (migration et adhésion à des cellules endothéliales matures) est significativement diminuée chez les souris vieillissantes comparée aux jeunes. Cependant, la déficience en Nox2 est associée à une récupération de l’activité fonctionnelle des EPCs chez les animaux vieillissants. Nous avons également démontré une augmentation pathologique du stress oxydant dans les EPCs isolées d’animaux vieillissants. Cette augmentation de stress oxydant dans les EPCs n’est pas présente chez les animaux déficients en Nox2. La troisième étude du projet de recherche a investigué l’effet des acides gras dérivés de la diète sur la néovascularisation postnatale. Pour ce faire, les souris ont reçu une diète comprenant 20% d’huile de maïs (riche en oméga-6) ou 20% d’huile de poisson (riche en oméga-3). Nos résultats démontrent qu’une diète riche en oméga-3 améliore la néovascularisation post-ischémique au niveau macro-vasculaire, micro-vasculaire et clinique comparée à une diète riche en oméga-6. Cette augmentation de la néovascularisation postnatale est associée à une réduction du ratio cholestérol total/cholestérol HDL dans le sérum et à une amélioration de la voie VEGF/NO dans les tissus ischémiques. De plus, une diète riche en acides gras oméga-3 est associée à une augmentation du nombre d’EPCs au niveau central (moelle osseuse) et périphérique (rate). Nous démontrons aussi que l’activité fonctionnelle des EPCs (migration et incorporation dans des tubules de cellules endothéliales matures) est améliorée et que le niveau de stress oxydant dans les EPCs est réduit par la diète riche en oméga-3. En conclusion, nos études ont permis de déterminer l’impact de différents facteurs de risque cardiovasculaire (tabagisme et vieillissement) et des acides gras dérivés de la diète (oméga-3) sur la néovascularisation post-ischémique. Nous avons aussi identifié plusieurs mécanismes qui sont impliqués dans cette physiopathologie. Globalement, nos études devraient contribuer à mieux comprendre l’effet du tabagisme, du vieillissement, des oméga-3, et du stress oxydant sur l’évolution des maladies vasculaires ischémiques.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
S’inscrivant dans le cadre d’une étude pancanadienne portant sur la normalisation du cannabis et la stigmatisation du tabac, le principal objectif de cette recherche était de comprendre quelle place occupe l’évaluation des risques dans la compréhension des perceptions et comportements liés aux deux substances. Pour ce faire, à partir d’un devis mixte – quantitatif et qualitatif, nous avons 1) décrit les perceptions et opinions des participants quant à leur propre consommation de cannabis et/ou de tabac et quant à la consommation que font les gens en général des mêmes substances. Nous avons aussi 2) décrit comment les participants évaluent les risques liés à chacune des substances. Enfin, sachant que la perception du risque est intimement liée au comportement d’un individu, nous avons cherché 3) à préciser comment l’évaluation du risque agit sur les comportements et les opinions des quelques 50 participants, hommes et femmes âgés entre 20 et 49 ans, bien intégrés socialement, envers le tabac et le cannabis. Il s’avère que les fumeurs de cannabis, qui ont insisté sur la distinction à faire entre la manière dont ils font usage de la substance et une consommation abusive, valorisait le contrôle que leur permettait, selon eux, la consommation de cannabis. La consommation de cigarettes, quant à elle, était perçue négativement pour des raisons opposées puisque de l’avis des participants à l’étude, elle engendrerait chez le fumeur une incapacité à se maîtriser et un besoin compulsif de fumer. Dans cette optique, les risques liés au cannabis étaient perçus, par la plupart, comme étant contrôlables, à l’exception du jugement d’autrui qui demeurerait incertain et sur lequel il serait impossible d’avoir du contrôle. La réaction de certaines personnes de leur entourage étant ou bien imprévisible ou négative, c’est ce qui les amènerait à fumer principalement en privé. Le contrôle social formel aurait finalement peu d’influence étant donné le fort sentiment qu’ont les répondants qu’il ne s’appliquera tout simplement pas à eux.
Resumo:
Les détecteurs à pixels Medipix ont été développés par la collaboration Medipix et permettent de faire de l'imagerie en temps réel. Leur surface active de près de $2\cm^2$ est divisée en 65536~pixels de $55\times 55\um^2$ chacun. Seize de ces détecteurs, les Medipix2, sont installés dans l'expérience ATLAS au CERN afin de mesurer en temps réel les champs de radiation produits par les collisions de hadrons au LHC. Ils seront prochainement remplacés par des Timepix, la plus récente version de ces détecteurs, qui permettent de mesurer directement l'énergie déposée dans chaque pixel en mode \textit{time-over-threshold} (TOT) lors du passage d'une particule dans le semi-conducteur. En vue d'améliorer l'analyse des données recueillies avec ces détecteurs Timepix dans ATLAS, un projet de simulation Geant4 a été amorcé par John Id\'{a}rraga à l'Université de Montréal. Dans le cadre de l'expérience ATLAS, cette simulation pourra être utilisée conjointement avec Athena, le programme d'analyse d'ATLAS, et la simulation complète du détecteur ATLAS. Sous l'effet de leur propre répulsion, les porteurs de charge créés dans le semi-conducteur sont diffusés vers les pixels adjacents causant un dépôt d'énergie dans plusieurs pixels sous l'effet du partage de charges. Un modèle effectif de cette diffusion latérale a été développé pour reproduire ce phénomène sans résoudre d'équation différentielle de transport de charge. Ce modèle, ainsi que le mode TOT du Timepix, qui permet de mesurer l'énergie déposée dans le détecteur, ont été inclus dans la simulation afin de reproduire adéquatement les traces laissées par les particules dans le semi-conducteur. On a d'abord étalonné le détecteur pixel par pixel à l'aide d'une source de $\Am$ et de $\Ba$. Ensuite, on a validé la simulation à l'aide de mesures d'interactions de protons et de particules $\alpha$ produits au générateur Tandem van de Graaff du Laboratoire René-J.-A.-Lévesque de l'Université de Montréal.
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
Symbole de modernité pendant la majeure partie du XXe siècle, la cigarette est depuis une trentaine d’années la cible d’interventions croissantes visant à réduire sa consommation. La lutte contre le tabac bénéficie d’un dispositif sans précédent qui fait office de cas d’école en santé publique, par son ampleur et par l’adhésion qu’il suscite. L’intérêt d’étudier cet objet réside ainsi dans la propriété essentielle de la lutte anti-tabac de relier un dispositif institutionnel et des motivations subjectives. Le dispositif anti-tabac (DAT) a en effet vocation à faire converger les prescriptions normatives d’un ensemble d’institutions et les désirs individuels, et y parvient manifestement dans une certaine mesure. Il permet dès lors d’aborder à la fois un travail sur les sociétés et un travail sur soi. Cette thèse entreprend une analyse sociologique du dispositif anti-tabac au Québec et vise à interroger les modalités et les fins de ce contrôle public de la consommation de tabac, en mettant au jour ses dimensions culturelles, symboliques et politiques. La santé publique apparaissant de nos jours comme lieu central de l’espace politique et social dans les sociétés contemporaines (Fassin et Dozon, 2001 :7), l’utopie d’un « monde sans fumée » se révèle selon nous tout à fait typique des enjeux qui caractérisent la modernité avancée ou « société du risque » (Beck, 2001, [1986]). Après avoir présenté le rapport historiquement ambivalent des pays occidentaux au tabac et ses enjeux, puis problématisé la question de la consommation de substances psychotropes dans le cadre d’une production et d’une construction sociale et culturelle (Fassin, 2005a), nous inscrivons le DAT dans le cadre d’une biopolitique de la population (Foucault, 1976; 1997; 2004b). À l’aune des enseignements de Michel Foucault, cette thèse consiste ainsi en l’analyse de discours croisée du dispositif institutionnel anti-tabac et de témoignages d’individus désirant arrêter de fumer, au regard du contexte social et politique de la société moderne avancée. Le DAT illustre les transformations à l’œuvre dans le champ de la santé publique, elles-mêmes caractéristiques d’une reconfiguration des modes de gouvernement des sociétés modernes avancées. La nouvelle biopolitique s’adresse en effet à des sujets libres et entreprend de produire des citoyens responsables de leur devenir biologique, des sujets de l’optimisation de leurs conditions biologiques. Elle s’appuie sur une culpabilité de type « néo-chrétien » (Quéval, 2008) qui caractérise notamment un des leviers fondamentaux du DAT. Ce dernier se caractérise par une lutte contre les fumeurs plus que contre le tabac. Il construit la figure du non-fumeur comme celle d’un individu autonome, proactif et performant et fait simultanément de l’arrêt du tabac une obligation morale. Par ce biais, il engage son public à se subjectiver comme citoyen biologique, entrepreneur de sa santé. L’analyse du DAT au Québec révèle ainsi une (re)moralisation intensive des questions de santé, par le biais d’une biomédicalisation des risques (Clarke et al., 2003; 2010), particulièrement représentative d’un nouveau mode d’exercice de l’autorité et de régulation des conduites dans les sociétés contemporaines, assimilée à une gouvernementalité néolibérale. Enfin, l’analyse de témoignages d’individus engagés dans une démarche d’arrêt du tabac révèle la centralité de la santé dans le processus contemporain d’individuation. La santé publique apparait alors comme une institution socialisatrice produisant un certain « type d’homme » centré sur sa santé et adapté aux exigences de performance et d’autonomie prévalant, ces éléments constituant désormais de manière croissante des clés d’intégration et de reconnaissance sociale.
Resumo:
Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.
Resumo:
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.
Resumo:
Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
Introduction. La fumée secondaire est considérée comme un agent neurotoxique. À ce jour, la littérature traitant des liens entre l’exposition à la fumée secondaire à l’enfance et les comportements antisociaux repose majoritairement sur des devis transversaux ou porte sur la période développementale de l’enfance. Objectif. D’une part, nous souhaitons repousser l’âge auquel les comportements antisociaux sont mesurés en le portant à la préadolescence. De plus, nous souhaitons utiliser des données autorapportées afin d’utiliser une mesure possiblement plus valide des comportements antisociaux. Finalement, nous souhaitons confirmer les résultats longitudinaux précédemment rapportés par les parents ou les enseignants à l’âge de 10 ans. Méthode. Les parents de 1035 enfants ayant participé à l’Étude longitudinale des enfants du Québec ont rapporté si au moins un individu fumait au domicile (entre l’âge d’un an et demi et sept ans). Les variables dépendantes autorévélées (mesurées à douze ans) comprenaient les problèmes de conduite, l’agressivité proactive, l’agressivité réactive, l’indiscipline scolaire et le risque de décrochage. Résultats. Après l’inclusion des variables de contrôle, nous avons observé que l’exposition à la fumée secondaire est prospectivement associée aux problèmes de conduite, l’agressivité proactive, l’agressivité réactive, l’indiscipline scolaire et le risque de décrochage autorévélés. Discussion. Les jeunes exposés à la fumée secondaire à l’enfance rapportent avoir plus de comportements antisociaux. Nos résultats corroborent les recommandations du American Surgeon’s General indiquant qu’aucune exposition à la fumée secondaire ne peut être considérée sécuritaire à l’enfance.