65 resultados para Positrons


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The cosmic-ray positron and negatron spectra between 11 and 204 MeV have been measured in a series of 3 high-altitude balloon flights launched from Fort Churchill, Manitoba, on July 16, July 21, and July 29, 1968. The detector system consisted of a magnetic spectrometer utilizing a 1000-gauss permanent magnet, scintillation counters, and a lucite Čerenkov counter.

Launches were timed so that the ascent through the 100 g/cm2 level of residual atmosphere occurred after the evening geomagnetic cutoff transition. Data gathered during ascent are used to correct for the contribution of atmospheric secondary electrons to the flux measured at float altitude. All flights floated near 2.4 g/cm2.

A pronounced morning intensity increase was observed in each flight. We present daytime positron and negatron data which support the interpretation of the diurnal flux variation as a change in the local geomagnetic cutoff. A large diurnal variation was observed in the count rate of positrons and negatrons with magnetic rigidities less than 11 MV and is evidence that the nighttime cutoff was well below this value.

Using nighttime data we derive extraterrestrial positron and negatron spectra. The positron-to-total-electron ratio which we measure indicates that the interstellar secondary, or collision, source contributes ≾50 percent of the electron flux within this energy interval. By comparing our measured positron spectrum with the positron spectrum calculated for the collision source we derive the absolute solar modulation for positrons in 1968. Assuming negligible energy loss during modulation, we derive the total interstellar electron spectrum as well as the spectrum of directly accelerated, or primary, electrons. We examine the effect of adiabatic deceleration and find that many of the conclusions regarding the interstellar electron spectrum are not significantly altered for an assumed energy loss of up to 50 percent of the original energy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this short review we look at bound states, positron-atom scattering. positronium-atom scattering. positronium-positronium scattering, cold antihydrogen and annihilation. (c) 2005 Published by Elsevier B.V.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Includes bibliographical references.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Le trouble de l’acquisition de la coordination (TAC), d’étiologie encore indéterminée, est une anomalie neurologique affectant environ 6% des enfants de l'âge scolaire. Le TAC se manifeste essentiellement par un déficit au niveau des exécutions motrices. Le présent travail de recherche comporte deux volets portant sur le TAC. Premièrement, une étude clinique sur 129 sujets âgés de 4 à 18 ans a permis de classifier les caractéristiques du TAC en sous-groupes cliniques. Trente-trois caractéristiques du TAC, les plus fréquemment rapportées dans la littérature, ont été recensées chez nos sujets. L'application d'évaluations statistiques a permis de faire ressortir trois classes essentielles. Le deuxième volet consistait à identifier les régions cérébrales impliquées dans une tâche motrice à l'aide de l'imagerie par la tomographie d'émission par positrons (TEP). Deux sujets avec TAC et deux sujets normaux ont été étudiés en deux séances d'imagerie TEP dont l'une au repos et l'autre en tapotant du pouce sur les doigts de la main gauche non-dominante. Les analyses du premier volet ont montré, entre autres, que le TAC touchait 3.17 garçons pour une fille, que tous les sujets étaient lents, que 47% des sujets étaient gauchers ou ambidextres alors que seulement 10% sont gauchers dans la population générale, que 26% avaient une dyspraxie verbale, et que 83% avaient été diagnostiqués anxieux. Les sujets ont été classés en trois sous-groupes: 1- maladroits et autres caractéristiques, sans problème de langage; 2- trouble de l’estime de soi et relation avec les pairs; 3- difficulté de langage. En imagerie, les structures cérébrales ont été classées selon leur captation du 18F-fluorodesoxyglucose (FDG) dans les hémisphères droit et gauche, avant et après l'activation, et en comparaison avec les sujets normaux. Trois types de structures cérébrales sont ressortis avec les statistiques: des structures activées, celles relativement non sollicitées et des structures désactivées. Il y avait plus de variations dans la captation du FDG chez les sujets avec TAC que chez les normaux. En conclusion, la caractérisation des sujets avec TAC par le diagnostic clinique et par l'imagerie peut procurer un plan de thérapie adéquat et ciblé étant donné que le TAC a un large spectre et pourrait coexister avec d'autres déficits cérébraux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Les performances de détecteurs à scintillation, composés d’un cristal scintillateur couplé à un photodétecteur, dépendent de façon critique de l’efficacité de la collecte et de l’extraction des photons de scintillation du cristal vers le capteur. Dans les systèmes d’imagerie hautement pixellisés (e.g. TEP, TDM), les scintillateurs doivent être arrangés en matrices compactes avec des facteurs de forme défavorables pour le transport des photons, au détriment des performances du détecteur. Le but du projet est d’optimiser les performances de ces détecteurs pixels par l'identification des sources de pertes de lumière liées aux caractéristiques spectrales, spatiales et angulaires des photons de scintillation incidents sur les faces des scintillateurs. De telles informations acquises par simulation Monte Carlo permettent une pondération adéquate pour l'évaluation de gains atteignables par des méthodes de structuration du scintillateur visant à une extraction de lumière améliorée vers le photodétecteur. Un plan factoriel a permis d'évaluer la magnitude de paramètres affectant la collecte de lumière, notamment l'absorption des matériaux adhésifs assurant l'intégrité matricielle des cristaux ainsi que la performance optique de réflecteurs, tous deux ayant un impact considérable sur le rendement lumineux. D'ailleurs, un réflecteur abondamment utilisé en raison de ses performances optiques exceptionnelles a été caractérisé dans des conditions davantage réalistes par rapport à une immersion dans l'air, où sa réflectivité est toujours rapportée. Une importante perte de réflectivité lorsqu'il est inséré au sein de matrices de scintillateurs a été mise en évidence par simulations puis confirmée expérimentalement. Ceci explique donc les hauts taux de diaphonie observés en plus d'ouvrir la voie à des méthodes d'assemblage en matrices limitant ou tirant profit, selon les applications, de cette transparence insoupçonnée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : L’imagerie TEP est une modalité puissante qui permet de suivre d’infimes concentrations de traceurs marqués pour la détection de cancers et d’autres pathologies. Il y a actuellement un intérêt croissant pour le développement de peptides comme outils diagnostiques et de traitement en oncologie. Cet intérêt se justifie entre autres par le fait que les peptides sont tolérants à la présence de chélateurs bifonctionnels ou de groupements prosthétiques pour le marquage avec divers radiométaux (64Cu, T1/2 = 12,7 h, 68Ga, T1/2 = 68 min, etc.) ou le 18F (T1/2 = 109,8 min) sans perte de leur activité biologique. L’objectif des travaux rapportés dans ce document était de développer des outils moléculaires innovateurs et efficaces qui facilitent le marquage de peptides pour l’imagerie TEP. Il s’agit spécifiquement d’un chélateur bifonctionnel et d’une méthode de conjugaison rapide et sélective de groupe prosthétique. Sur un volet, un chélateur bifonctionnel analogue de la lysine avec des ligands méthylhydroxamates a été synthétisé en solution par double bisalkylation. Les résultats préliminaires indiquent une faible chélation avec le Cu(II), mais sont à poursuivre avec les 68Ga et 89Zr. Pour le second volet de radiomarquage au 18F, les procédures synthétiques ont été optimisées en deux étapes, soient le marquage du groupe prothétique et sa conjugaison au peptide. Tout d’abord, des conditions de marquage par une réaction de SNAr en présence de 18F- ont été développées pour donner le groupe prosthétique 18F-thioester nécessaire à la conjugaison. Par la suite, sa conjugaison au peptide par la réaction de ligation chémosélective, ce qui implique trois étapes 1) une transthioestérification favorisée entre les groupements thioester et thiol des segments de peptides; 2) un réarrangement irréversible de l’intermédiaire thioester en N-(oxyalkyl)amide, suivi; 3) du clivage de l’auxiliaire. Par les présents travaux, il a été prouvé que la nouvelle méthodologie en un seul pot réactionnel accélère la réaction et permet le marquage au 18F de peptides non protégés, limitant ainsi les réactions secondaires et le nombre d’étapes après le marquage des peptides. La conjugaison du groupe prothétique à un composé et un peptide modèle se produit en 26-55 min comparativement aux 48 h des conditions originales rapportées. La méthode proposée permet également le marquage de peptides non protégés. Dans le futur, le chélateur bifonctionnel et le groupe prothétique seront conjugués à différents dérivés peptidiques ciblant des récepteurs impliqués dans le cancer et des tests de compétition, de saturation, de biodistribution et d’imagerie µTEP seront effectués.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The International Large Detector (ILD) is a concept for a detector at the International Linear Collider, ILC. The ILC will collide electrons and positrons at energies of initially 500 GeV, upgradeable to 1 TeV. The ILC has an ambitious physics program, which will extend and complement that of the Large Hadron Collider (LHC). A hallmark of physics at the ILC is precision. The clean initial state and the comparatively benign environment of a lepton collider are ideally suited to high precision measurements. To take full advantage of the physics potential of ILC places great demands on the detector performance. The design of ILD is driven by these requirements. Excellent calorimetry and tracking are combined to obtain the best possible overall event reconstruction, including the capability to reconstruct individual particles within jets for particle ow calorimetry. This requires excellent spatial resolution for all detector systems. A highly granular calorimeter system is combined with a central tracker which stresses redundancy and efficiency. In addition, efficient reconstruction of secondary vertices and excellent momentum resolution for charged particles are essential for an ILC detector. The interaction region of the ILC is designed to host two detectors, which can be moved into the beam position with a push-pull scheme. The mechanical design of ILD and the overall integration of subdetectors takes these operational conditions into account.