33 resultados para Sheets normalization
Resumo:
S’inscrivant dans le cadre d’une étude pancanadienne portant sur la normalisation du cannabis et la stigmatisation du tabac, le principal objectif de cette recherche était de comprendre quelle place occupe l’évaluation des risques dans la compréhension des perceptions et comportements liés aux deux substances. Pour ce faire, à partir d’un devis mixte – quantitatif et qualitatif, nous avons 1) décrit les perceptions et opinions des participants quant à leur propre consommation de cannabis et/ou de tabac et quant à la consommation que font les gens en général des mêmes substances. Nous avons aussi 2) décrit comment les participants évaluent les risques liés à chacune des substances. Enfin, sachant que la perception du risque est intimement liée au comportement d’un individu, nous avons cherché 3) à préciser comment l’évaluation du risque agit sur les comportements et les opinions des quelques 50 participants, hommes et femmes âgés entre 20 et 49 ans, bien intégrés socialement, envers le tabac et le cannabis. Il s’avère que les fumeurs de cannabis, qui ont insisté sur la distinction à faire entre la manière dont ils font usage de la substance et une consommation abusive, valorisait le contrôle que leur permettait, selon eux, la consommation de cannabis. La consommation de cigarettes, quant à elle, était perçue négativement pour des raisons opposées puisque de l’avis des participants à l’étude, elle engendrerait chez le fumeur une incapacité à se maîtriser et un besoin compulsif de fumer. Dans cette optique, les risques liés au cannabis étaient perçus, par la plupart, comme étant contrôlables, à l’exception du jugement d’autrui qui demeurerait incertain et sur lequel il serait impossible d’avoir du contrôle. La réaction de certaines personnes de leur entourage étant ou bien imprévisible ou négative, c’est ce qui les amènerait à fumer principalement en privé. Le contrôle social formel aurait finalement peu d’influence étant donné le fort sentiment qu’ont les répondants qu’il ne s’appliquera tout simplement pas à eux.
Resumo:
La présente étude vise à dégager les paramètres élémentaires d’une analyse phénoménologique de la danse. D’emblée, la pensée de Maurice Merleau-Ponty s’impose comme cadre privilégié pour révéler l’expérience vécue de cet art qui met en scène un savoir corporel complexe. À partir de sa théorie de la perception, dont découlent les phénomènes relatifs au corps moteur, à l’espace et à l’intersensorialité, notre étude aménage les contours d’une analyse existentielle du geste dansé. Ce faisant, nous nous heurtons à un constat : le phénomène de la danse se présente comme un élément perturbateur de la pensée merleau-pontienne. En effet, il incite à en questionner les aspects fondamentaux, voire à en constater certaines limites. Informée par les études de Rudolf Laban, instigateur de la « danse libre » allemande et par les celles des philosophes contemporains Maxine Sheets-Johnstone, Michel Bernard, Laurence Louppe et Renaud Barbaras, notre étude démontre en effet que la thèse merleau-pontienne de la perception empêche de cibler le travail kinesthésique du corps propre dans l’empire du « sentir » qui l’anime et de reconnaitre sa constitution profondément dynamique. Pour combler cette carence, nous invitons à une phénoménologie de la danse qui puisse embrasser sa nature poétique, la sensibilité créatrice qu’elle requiert et le travail sensible qu’elle habilite. Nous envisageons alors, avec le philosophe de la sensation Renaud Barbaras, de nous inspirer d’une heuristique aux traits vitalistes pour réhabiliter certaines notions battues en retraite par la tradition phénoménologique. En nous tournant vers les concepts de force, de désir, d’intensification, nous tentons de retrouver dans la logique de la sensation elle-même un dynamisme fondamental que l’expérience esthétique amplifie. La recherche nous montre que la danse est l’art qui, mieux que nul autre, rend compte de ce phénomène complexe.
Resumo:
Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.
Resumo:
Notre étude a pour objet la conception, la synthèse ainsi que l’étude structurale d’architectures supramoléculaires obtenues par auto-assemblage, en se basant sur les concepts de la tectonique moléculaire. Cette branche de la chimie supramoléculaire s’occupe de la conception et la synthèse de molécules organiques appelées tectons, du grec tectos qui signifie constructeur. Le tecton est souvent constitué de sites de reconnaissance branchés sur un squelette bien choisi. Les sites de reconnaissance orientés par la géométrie du squelette peuvent participer dans des interactions intermoléculaires qui sont suffisamment fortes et directionnelles pour guider la topologie du cristal résultant. La stratégie envisagée utilise des processus d'auto-assemblage engageant des interactions réversibles entre les tectons. L’auto-assemblage dirigé par de fortes interactions intermoléculaires directionnelles est largement utilisé pour fabriquer des matériaux dont les composants doivent être positionnés en trois dimensions (3D) d'une manière prévisible. Cette stratégie peut également être utilisée pour contrôler l’association moléculaire en deux dimensions (2D), ce qui permet la construction de monocouches organisées et prédéterminées sur différents types des surfaces, tels que le graphite.Notre travail a mis l’accent sur le comportement de la fonction amide comme fonction de reconnaissance qui est un analogue du groupement carboxyle déjà utilisé dans plusieurs études précédentes. Nous avons étudié le comportement d’une série de composés contenant un noyau plat conçu pour faciliter l'adsorption sur le graphite et modifiés par l'ajout de groupes amide pour favoriser la formation de liaisons hydrogène entre les molécules ainsi adsorbées. La capacité de ces composés à former de monocouches organisées à l’échelle moléculaire en 2D a été examinée par microscopie à effet tunnel, etleur organisation en 3D a également été étudiée par cristallographie aux rayons X. Dans notre étude, nous avons systématiquement modifié la géométrie moléculaire et d'autres paramètres afin d'examiner leurs effets sur l'organisation moléculaire. Nos résultats suggèrent que les analyses structurales combinées en 2D et 3D constituent un important atout dans l'effort pour comprendre les interactions entre les molécules adsorbées et l’effet de l’interaction avec la surface du substrat.
Resumo:
Amongst the potential neurotoxins implicated in the pathogenesis of hepatic encephalopathy, manganese emerges as a new candidate. In patients with chronic liver diseases, manganese accumulates in blood and brain leading to pallidal signal hyperintensity on T1-weighted Magnetic Resonance (MR) Imaging. Direct measurements in globus pallidus obtained at autopsy from cirrhotic patients who died in hepatic coma reveal 2 to 7-fold increases of manganese concentration. The intensity of pallidal MR images correlates with blood manganese and with the presence of extrapyramidal symptoms occurring in a majority of cirrhotic patients. Liver transplantation results in normalization of pallidal MR signals and disappearance of extrapyramidal symptoms whereas transjugular intrahepatic portosystemic shunting induces an increase in pallidal hyperintensity with a concomitant deterioration of neurological dysfunction. These findings suggest that the toxic effects of manganese contribute to extrapyramidal symptoms in patients with chronic liver disease. The mechanisms of manganese neurotoxicity are still speculative, but there is evidence to suggest that manganese deposition in the pallidum may lead to dopaminergic dysfunction. Future studies should be aimed at evaluating the effects of manganese chelation and/or of treatment of the dopaminergic deficit on neurological symptomatology in these patients.
Resumo:
Mild hypothermia (32 degrees C-35 degrees C) reduces intracranial pressure in patients with acute liver failure and may offer an effective adjunct therapy in the management of these patients. Studies in experimental animals suggest that this beneficial effect of hypothermia is the result of a decrease in blood-brain ammonia transfer resulting in improvement in brain energy metabolism and normalization of glutamatergic synaptic regulation. Improvement in brain energy metabolism by hypothermia may result from a reduction in ammonia-induced decrease of brain glucose (pyruvate) oxidation. Restoration of normal glutamatergic synaptic regulation by hypothermia may be the consequence of the removal of ammonia-induced decreases in expression of astrocytic glutamate transporters resulting in normal glutamate neurotransmitter inactivation in brain. Randomized controlled clinical trials of hypothermia are required to further evaluate its clinical impact.
Resumo:
Dans ce mémoire de recherche-création en littératures de langue française, j’aborde la question des rapports entre les procédés de réécriture (par exemple, l’intertextualité, l’intratextualité et l’autotextualité, mais aussi les figures de la répétition et de la correction) et l’effet de défamiliarisation (ou de distanciation) au moyen d’un essai sur le roman Mercier et Camier de Samuel Beckett et d’une création littéraire de mon cru : un livre-objet constitué de trente et une feuilles non paginées et non reliées, sur lesquelles je réécris autant de fois l’incipit de Bouvard et Pécuchet, de Gustave Flaubert, en recourant à une mise en page qui défie le mode de lecture linéaire. Autant mon essai que ma création s’appliquent à montrer que les procédés de réécriture peuvent être employés pour produire un effet de défamiliarisation visant la fonction représentative de la littérature.
Resumo:
La dysfonction diastolique du ventricule gauche (DDVG) réfère à une rigidité ainsi qu’à des troubles de relaxation au niveau de ce ventricule pendant la phase de la diastole. Nos connaissances sur les mécanismes moléculaires sous-jacents de cette pathologie demeurent limités. Les analyses géniques sont indispensables afin de bien identifier les voies par lesquelles cette maladie progresse. Plusieurs techniques de quantification de l’expression génique sont disponibles, par contre la RT-qPCR demeure la méthode la plus populaire vu sa haute sensibilité et de ses coûts modérés. Puisque la normalisation occupe un aspect très important dans les expériences de RT-qPCR, nous avons décidé de sélectionner des gènes montrant une haute stabilité d’expression dans un modèle de DDVG de lapin. Nous avons alors exposé 18 lapins blancs soit à une diète normale (n=7) ou bien à une diète hypercholestérolémiante additionnée de vitamine D2 (n=11). La DDVG a été évaluée par des mesures échocardiographiques. L’expression de l’ARNm de dix gènes communément utilisés dans la littérature comme normalisateur (Gapdh, Hprt1, Ppia, Sdha, Rpl5, Actb, Eef1e1, Ywhaz, Pgk1, et G6pd) a été mesurée par RT-qPCR. L’évaluation de leur stabilité a été vérifiée par les algorithmes de geNorm et Normfinder. Sdha et Gapdh ont obtenu les meilleurs scores de stabilité (M<0.2) et ont été suggérés par le geNorm, comme meilleure combinaison. Par contre, l’utilisation de Normfinder mène à la sélection d’Hprt1 et Rpl5 comme meilleure combinaison de gènes de normalisation (0.042). En normalisant par ces deux combinaisons de gènes, l’expression de l’ARNm des peptides natriurétiques de type A et B (Anp et Bnp), de la protéine chimiotactique des monocytes-1 (Mcp-1) et de la sous unité Nox-2 de la NADPH oxydase ont montré des augmentations similaires chez le groupe hypercholestérolémique comparé au groupe contrôle (p<0.05). Cette augmentation d’expressions a été corrélée avec plusieurs paramètres échocardiographiques de DDVG. À notre connaissance, c’est la première étude par laquelle une sélection de gènes de référence a été réalisée dans un modèle de lapin développant une DDVG.
Resumo:
L’objectif de cette thèse était d’évaluer Espace de Transition (ET), un programme novateur d’intervention par les arts de la scène visant à favoriser la réadaptation psychosociale d’adolescents et de jeunes adultes présentant des troubles mentaux stabilisés et à diminuer la stigmatisation des individus aux prises avec des problèmes de santé mentale. Ce programme a été conçu par une équipe de cliniciens du département de psychiatrie du Centre hospitalier universitaire Ste-Justine, en collaboration avec des artistes professionnels, et est livré depuis le printemps 2009. L’évaluation du programme ET a été conduite de manière indépendante, selon des approches collaborative et naturaliste et en usant de méthodes mixtes. Les données de recherche ont été recueillies avant pendant et après le programme auprès de l’ensemble des participants à deux sessions distinctes (N = 24), de même qu’auprès des deux artistes instructeurs, de la psychoéducatrice responsable du soutien clinique, ainsi que des psychiatres et autres intervenants ayant référé des participants (N=11). Des entrevues semi-structurées individuelles et de groupe, des observations directes et des questionnaires ont servi à recueillir les données nécessaires à l’évaluation. Des analyses quantitatives de variance, ainsi que des analyses qualitatives thématiques ont été réalisées et leurs résultats ont été interprétés de manière intégrée. Le premier chapitre empirique de la thèse relate l’évaluation de la mise en œuvre du programme ET. Cette étude a permis de constater que le programme avait rejoint des participants correspondant de près à la population visée et que ceux-ci présentaient globalement des niveaux élevés d’assiduité, d’engagement et d’appréciation du programme. L’évaluation de la mise en œuvre a en outre permis de conclure que la plupart des composantes du programme identifiées a priori comme ses paramètres essentiels ont été livrées tel que prévu par les concepteurs et que la plupart d’entre elles ont été largement appréciées et jugées pertinentes par les participants et les autres répondants consultés. Le second chapitre empirique consiste en un article portant sur l’évaluation des effets du programme ET relativement à l’atteinte de trois de ses objectifs intermédiaires, soient l’amélioration 1) du fonctionnement global, 2) du confort relationnel et des compétences sociales, ainsi que 3) de la perception de soi des participants présentant des troubles mentaux. Les résultats de cette étude ont révélé des changements significatifs et positifs dans le fonctionnement global des participants suite au programme, tel qu’évalué par les cliniciens référents et partiellement corroboré par les participants eux-mêmes. Des améliorations en ce qui concerne le confort relationnel, les compétences sociales et la perception de soi ont également été objectivées chez une proportion substantielle de participants, bien que celles-ci ne se soient pas traduites en des différences significatives décelées par les analyses quantitatives de groupe. Le troisième et dernier chapitre empirique de la thèse relate une étude exploratoire des mécanismes sous-tendant les effets du programme ET ayant conduit à l’élaboration inductive d’une théorie d’action de ce programme. Cette investigation qualitative a révélé quatre catégories de mécanismes, soient des processus de 1) gain d’expérience et de gratification sociales, 2) de désensibilisation par exposition graduelle, 3) de succès et de valorisation, et 4) de normalisation. Cette étude a également permis de suggérer les caractéristiques et composantes du programme qui favorisent la mise en place ou l’impact de ces mécanismes, tels l’environnement et l’animation non cliniques du programme, la composition hétérogène des groupes de participants, le recours aux arts de la scène, ainsi que la poursuite d’une réalisation collective et son partage avec un public extérieur au programme. Globalement, les études présentées dans la thèse appuient la pertinence et le caractère prometteur du programme ET, tout en suggérant des pistes d’amélioration potentielle pour ses versions ultérieures. Par extension, la thèse soutient l’efficacité potentielle d’interventions réadaptatives mettant en œuvre des composantes apparentées à celles du programme ET pour soutenir le rétablissement des jeunes aux prises avec des troubles mentaux.
Resumo:
Les troubles des tics, comme le syndrome de Gilles de la Tourette et le trouble de tics chroniques, sont des conditions neuropsychiatriques impliquant des tics moteurs et/ou phoniques. En plus de nombreuses comorbidités, les patients qui en sont atteints ont aussi des difficultés neuropsychologiques, notamment au niveau de l’inhibition et des fonctions motrices. La thérapie cognitivo-comportementale permet d’améliorer les tics et la condition générale de ces patients. Nous avons donc enregistré, durant une tâche de compatibilité stimulus-réponse, les potentiels évoqués cognitifs et les potentiels de latéralisation motrice (lateralized readiness potential; LRP) chez 20 patients atteints de trouble des tic avant et après une thérapie cognitivo-comportementale, et chez 20 participants contrôles. Chez les patients atteints de trouble des tics, nos résultats ont révélé une apparition plus tardive de l’amorce du LRP moyenné par rapport au stimulus, une amplitude plus élevée du LRP moyenné par rapport à la réponse, et une suractivation frontale liée aux processus d’inhibition. Suite à la thérapie, le retard au niveau de la latence de l’amorce du LRP moyenné par rapport à la réponse est comblé et l’amplitude du LRP moyenné par rapport à la réponse est normalisée, mais pas la suractivation frontale liée à l’inhibition. Cela suggère donc que la thérapie induit une modification des processus prémoteurs de sélection et de préparation de la réponse, ainsi que des processus d’exécution motrice, mais n’altère pas la suractivation frontale reliée aux fonctions inhibitrices. Étant donnés ces résultats, nous suggérons que la thérapie cognitivo-comportementale induit une modification du fonctionnement des aires motrices du cerveau.
Resumo:
Afin d’être représentatif d’un niveau d’effort musculaire, le signal électromyographique (EMG) est exprimé par rapport à une valeur d’activation maximale. Comme l’épaule est une structure articulaire et musculaire complexe, aucune contraction volontaire isométrique (CVMi) proposée dans la littérature ne permet d’activer maximalement un même muscle de l’épaule pour un groupe d’individus. L’objectif de ce mémoire est de développer une approche statistique permettant de déterminer les CVMi optimales afin de maximiser les niveaux d’activation d’un ensemble de muscles de l’épaule. L’amplitude du signal EMG de 12 muscles de l’épaule a été enregistrée chez 16 sujets alors qu’ils effectuaient 15 CVMi. Une première approche systématique a permis de déterminer les 4 CVMi parmi les 15 qui ensemble maximisent les niveaux d’activation pour les 12 muscles simultanément. Ces 4 contractions ont donné des niveaux d’activation supérieurs aux recommandations antérieures pour 4 muscles de l’épaule. Une seconde approche a permis de déterminer le nombre minimal de CVMi qui sont nécessaires afin de produire un niveau d’activation qui n’est pas significativement différent des valeurs d’activation maximales pour les 16 sujets. Pour 12 muscles de l’épaule, un total de 9 CVMi sont requises afin de produire des valeurs d’activation qui sont représentatives de l’effort maximal de tous les sujets. Ce mémoire a proposé deux approches originales, dont la première a maximisé les niveaux d’activation qui peuvent être produits à partir d’un nombre fixe de CVMi tandis que la deuxième a permis d’identifier le nombre minimal de CVMi nécessaire afin de produire des niveaux d’activation qui ne sont pas significativement différentes des valeurs d’activation maximales. Ces deux approches ont permis d’émettre des recommandations concernant les CVMi nécessaires à la normalisation de l’EMG afin de réduire les risques de sous-estimer l’effort maximal d’un ensemble d’individus.
Resumo:
La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Introduction : La croissance maxillo-mandibulaire des enfants avec une séquence de Pierre Robin (SPR) est controversée dans la littérature. Certains auteurs croient que la croissance mandibulaire est accélérée après la naissance, mais peu se sont penchés sur la croissance du maxillaire supérieur. Cette étude rétrospective sur dossier vise à analyser la croissance maxillo-mandibulaire des enfants atteints de la SPR. Dans un deuxième temps, nous aurions aimé évaluer la sévérité et l’évolution de l’apnée du sommeil en lien avec la croissance des maxillaires, mais un manque de données a empêché l’atteinte de cet objectif. Matériel et méthode : Les dossiers médicaux et orthodontiques de 93 patients (82 volet apnée et 40 volet croissance) du CHU Ste-Justine avec une SPR isolée ont été révisés puis comparés au groupe contrôle composé d’enfants normaux de l’Université du Michigan. L’analyse statistique de modèle mixte pour mesures répétées de même que celle de Brunner-Langer furent effectuées. Résultats : L’évaluation orthodontique a montré un changement statistiquement significatif pour la relation molaire droite, la présence de chevauchement et de diastème au maxillaire et le surplomb vertical. L’analyse des données céphalométriques nous montre que le maxillaire supérieur, la branche montante et le corps de la mandibule sont tous réduits par rapport à la normale. Ce dernier montre une diminution significative avec l’âge (p = 0,03). L’angle gonial, le SNA, SNB, ANB, l’angle de convexité faciale et l’inclinaison de l’incisive supérieure par rapport à FH sont tous normaux. Par contre, on remarque une augmentation statistiquement significative de cette dernière avec l’âge (p = 0,04). L’angle Y est augmenté tandis que les hauteurs faciales supérieure (HFS) et inférieure (HFI) sont diminuées bien que cette dernière montre une tendance à s’approcher de la normale avec l’âge (p ≤ 0,001). Discussion : Les dimensions des maxillaires sont similaires à plusieurs études. En ce qui concerne la mandibule, la croissance est soit plus lente, soit diminuée. Cette observation est plus marquée lorsque l’on s’approche du pic de croissance puisque l’écart par rapport à la normale s’agrandit. On voit une tendance à la croissance hyperdivergente qui pourrait expliquer l’augmentation de la HFI avec l’âge. Le fait que SNA et SNB soient dans la normale pourrait s’expliquer par une diminution de la longueur de la base crânienne. Conclusion : Il n’y a pas de rattrapage de croissance maxillaire et mandibulaire. Les maxillaires restent micrognathes quoique proportionnels l’un envers l’autre et le profil est convexe tout au long de la croissance. La comparaison des données céphalométriques et des traitements orthodontiques avec ceux des patients présentant une fente palatine isolée devrait se faire sous peu. Nous n’avons pas été en mesure d’atteindre nos objectifs concernant l’apnée du sommeil. Une étude prospective serait à prévoir pour y arriver.
Resumo:
La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.