20 resultados para vocation and mission
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Full Text / Article complet
Resumo:
Compte-rendu / Review
Resumo:
La Bosnie-Herzégovine est sous supervision internationale depuis 1995. Les principaux acteurs de cette communauté internationale soit l’Union Européenne (UE) et le Bureau du Haut-Représentant à la Communauté Internationale (OHR) ont exprimé à de nombreuses reprises leur intention de transformer la mission internationale en s’éloignant du pouvoir discrétionnaire du OHR en le remplaçant par la perspective d’intégration offerte par l’UE. Malgré les bonnes intentions, cette transition semble être dans une impasse. Depuis 2006, l’organisation et la distribution des responsabilités au sein de la communauté internationale sont restées inchangées. Ce mémoire s’intéresse à ces deux principaux acteurs et à leur rôle dans l’impasse. L’objectif est de tester trois cadres d’analyse soit le rationalisme, le constructivisme et la complexité des régimes pouvant expliquer cette impasse. En se basant sur des interviews avec des experts et des représentants des deux institutions, ce mémoire explore dans quelle mesure et dans quels contextes chaque cadre d’analyse est apte à expliquer le comportement des acteurs.
Resumo:
Cette thèse de doctorat en composition comprend deux projets de nature différente et complémentaire : (1) un projet de recherche théorique sur la communication des caractères musicaux; (2) un projet artistique s'articulant autour de la composition de trois pièces : L'homme à deux têtes - opéra de chambre, Un instant dans l'esprit de Lovecraft - pour clarinette solo, orchestre à cordes et percussions, et Balade ornithologique - pour orchestre à vents. La conception de la musique comme un moyen de communication est à l'origine de cette recherche théorique qui est motivée par un désir de compréhension des stratégies d'expressions des émotions en musique, à partir du point de vue du compositeur. Cette thèse aborde les modèles de communication, le concept de personnage virtuel et la théorie de la contagion des humeurs. Par la suite, nous détaillerons les indices acoustiques menant à la perception des caractères musicaux. Toutes ces notions sont illustrées et explorées par la composition de miniature ayant un caractère bien ciblé. Finalement, nous proposons un système d'analyse musical des caractères et des émotions qui est appliqué à l'analyse de sections des pièces composées au cours de ce projet de doctorat. Ce dernier chapitre met en lumière les stratégies utilisées pour créer un discours dramatique tout en exposant l'évocation de différents caractères musicaux.