103 resultados para Données--Compression (Télécommunications)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les illustrations accompagnant le texte ont été dessinées par monsieur Mathieu Gagnon.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À ce jour, les différentes méthodes de reconstruction des mouvements du plasma à la surface du Soleil qui ont été proposées présupposent une MHD idéale (Welsch et al., 2007). Cependant, Chae & Sakurai (2008) ont montré l’existence d’une diffusivité magnétique turbulente à la photosphère. Nous introduisons une généralisation de la méthode du Minimum Energy Fit (MEF ; Longcope, 2004) pour les plasmas résistifs. Le Resistive Minimum Energy Fit (MEF-R ; Tremblay & Vincent, 2014) reconstruit les champs de vitesse du plasma et la diffusivité magnétique turbulente qui satisfont à l’équation d’induction magnétique résistive et qui minimisent une fonctionnelle analogue à l’énergie cinétique totale. Une séquence de magnétogrammes et de Dopplergrammes sur les régions actives AR 9077 et AR 12158 ayant chacune produit une éruption de classe X a été utilisée dans MEF-R pour reconstruire les mouvements du plasma à la surface du Soleil. Les séquences temporelles des vitesses et des diffusivités magnétiques turbulentes calculées par MEF-R sont comparées au flux en rayons X mous enregistré par le satellite GOES-15 avant, pendant et après l’éruption. Pour AR 12158, nous observons une corrélation entre les valeurs significatives de la diffusivité magnétique turbulente et de la vitesse microturbulente pour les champs magnétiques faibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce document est une version mise-à-jour du document "Lire la recherche utilisant des données qualitatives", décembre 2014 : http://hdl.handle.net/1866/11341

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en criminologie, option criminalistique et information.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les positions des évènements de recombinaison s’agrègent ensemble, formant des hotspots déterminés en partie par la protéine à évolution rapide PRDM9. En particulier, ces positions de hotspots sont déterminées par le domaine de doigts de zinc (ZnF) de PRDM9 qui reconnait certains motifs d’ADN. Les allèles de PRDM9 contenant le ZnF de type k ont été préalablement associés avec une cohorte de patients affectés par la leucémie aigüe lymphoblastique. Les allèles de PRDM9 sont difficiles à identifier à partir de données de séquençage de nouvelle génération (NGS), en raison de leur nature répétitive. Dans ce projet, nous proposons une méthode permettant la caractérisation d’allèles de PRDM9 à partir de données de NGS, qui identifie le nombre d’allèles contenant un type spécifique de ZnF. Cette méthode est basée sur la corrélation entre les profils représentant le nombre de séquences nucléotidiques uniques à chaque ZnF retrouvés chez les lectures de NGS simulées sans erreur d’une paire d’allèles et chez les lectures d’un échantillon. La validité des prédictions obtenues par notre méthode est confirmée grâce à analyse basée sur les simulations. Nous confirmons également que la méthode peut correctement identifier le génotype d’allèles de PRDM9 qui n’ont pas encore été identifiés. Nous conduisons une analyse préliminaire identifiant le génotype des allèles de PRDM9 contenant un certain type de ZnF dans une cohorte de patients atteints de glioblastomes multiforme pédiatrique, un cancer du cerveau caractérisé par les mutations récurrentes dans le gène codant pour l’histone H3, la cible de l’activité épigénétique de PRDM9. Cette méthode ouvre la possibilité d’identifier des associations entre certains allèles de PRDM9 et d’autres types de cancers pédiatriques, via l’utilisation de bases de données de NGS de cellules tumorales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le cadre du cours PHT-6123 : Travail d’intégration

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ Initiative des Écoles Amies de la Nutrition (IEAN) est une initiative développée par l'Organisation Mondiale de la Santé (OMS) en 2006 pour contrer le Double Fardeau Nutritionnel (DFN). TRANSNUT est une équipe de professeurs de l’Université de Montréal et Centre collaborateur OMS sur la transition nutritionnelle et le développement. En 2009, il a participé à une étude de base au Burkina Faso, qui a recueilli des données anthropométriques et biologiques des élèves du cours moyen. Cinq ans plus tard, en 2014, de nouvelles données anthropométriques et biologiques ont été recueillies dans les mêmes écoles mais non chez les mêmes élèves. Le but de cette étude est d'analyser les données de 2014 et de comparer les résultats avec ceux de 2009, afin d'évaluer l'impact et l’efficacité de l'initiative. C’est une étude transversale menée dans 12 écoles à Ouagadougou, la capitale du Burkina Faso. Six écoles «intervention» et six écoles «témoin» ont été sélectionnées, en tenant compte de la nature des écoles (privées/publiques) et de leurs zones géographiques (urbaines/périurbaines). L'échantillon total comprenait 651 écoliers (54,7% de filles) âgés de 8 à 14 ans. Des mesures anthropométriques et de la concentration d'hémoglobine ont été effectuées sur tous les enfants, alors que le rétinol sérique a été mesuré dans un sous-échantillon aléatoire de 184 enfants. Le test de t et du Khi Carré ont été utilisés pour la comparaison des moyennes et des proportions. L'âge moyen des enfants était de 11,4 ± 1,1 ans. Les taux d'anémie et de déficience en vitamine A (DVA) étaient respectivement de 35,6% et 26,1%. La prévalence du retard de croissance était de 8,1% et celle de la maigreur, de 8,4%. Chez les filles, 2,8% étaient en surpoids contre 0,9% des garçons (p = 0,036). Moins d'élèves étaient maigres en 2014 (7,2%) par rapport à 2009 (13,7%), et ce résultat était significatif avec p < 0,001. En outre, les carences en micronutriments ont été moins présentes dans les écoles en 2014 par rapport à 2009 (p = 0,007 pour l'anémie, p = 0,044 pour la DVA). Nos résultats ont confirmé une grande amélioration du statut nutritionnel des enfants d’âge scolaire à Ouagadougou. Toutefois, il n’est pas possible présentement d’évaluer jusqu'à quelle mesure l’IEAN a été impliquée dans ces changements, ni d’attribuer ces améliorations à cette initiative uniquement. Les recherches futures doivent être axées sur des études longitudinales pour évaluer de manière plus précise la croissance des mêmes élèves qui font partie des écoles « amies de la nutrition ».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Présentation-éclair, Congrès des milieux documentaires du Québec 2015

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tout médicament administré par la voie orale doit être absorbé sans être métabolisé par l’intestin et le foie pour atteindre la circulation systémique. Malgré son impact majeur sur l’effet de premier passage de plusieurs médicaments, le métabolisme intestinal est souvent négligé comparativement au métabolisme hépatique. L’objectif de ces travaux de maîtrise est donc d’utiliser, caractériser et développer différents outils in vitro et in vivo pour mieux comprendre et prédire l’impact du métabolisme intestinal sur l’effet de premier passage des médicaments comparé au métabolisme hépatique. Pour se faire, différents substrats d’enzymes du métabolisme ont été incubés dans des microsomes intestinaux et hépatiques et des différences entre la vitesse de métabolisme et les métabolites produits ont été démontrés. Afin de mieux comprendre l’impact de ces différences in vivo, des études mécanistiques chez des animaux canulés et traités avec des inhibiteurs enzymatiques ont été conduites avec le substrat métoprolol. Ces études ont démontré l’impact du métabolisme intestinal sur le premier passage du métoprolol. De plus, elles ont révélé l’effet sur la vidange gastrique du 1-aminobenzotriazole, un inhibiteur des cytochromes p450, évitant ainsi une mauvaise utilisation de cet outil dans le futur. Ces travaux de maîtrise ont permis d’améliorer les connaissances des différents outils in vitro et in vivo pour étudier le métabolisme intestinal tout en permettant de mieux comprendre les différences entre le rôle de l’intestin et du foie sur l’effet de premier passage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.