921 resultados para Calcul quantique expérimental
Resumo:
Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.
Resumo:
Objectif : Cette thèse a pour objectif de mieux comprendre l’effet du stress sur la douleur aiguë et chronique. Devis expérimental : 16 patients souffrant de douleur chronique lombalgique et 18 sujets contrôles ont participé à une étude d’imagerie par résonance magnétique (IRM) et ont collecté des échantillons de salive afin de quantifier les niveaux d’hormone de stress (i.e. cortisol) la journée de l’étude (réponse réactive) et durant les sept jours consécutifs suivants (réponse basale). Étude 1 : Une première étude a examiné le lien entre les niveaux de cortisol basal, le volume de l’hippocampe et l’activité cérébrale évoquée par la douleur thermique chez des patients souffrant de douleur chronique et les sujets contrôles. Les résultats révèlent que les patients souffrant de douleur chronique avaient des niveaux de cortisol plus élevés que ceux des sujets contrôles. Chez ces patients, un niveau élevé de cortisol était associé à un plus petit volume de l'hippocampe et à davantage d’activation dans le gyrus parahippocampique antérieure (une région impliquée dans l'anxiété anticipatoire et l'apprentissage associatif). De plus, une analyse de médiation a montré que le niveau de cortisol basal et la force de la réponse parahippocampique explique statistiquement l’association négative entre le volume de l'hippocampe et l'intensité de la douleur chronique. Ces résultats suggèrent que l’activité endocrinienne plus élevée chez les patients ayant un plus petit hippocampe modifie le fonctionnement du complexe hippocampique et contribue à l’intensité de la douleur chronique. Étude 2 : La deuxième étude a évalué la contribution de la réponse de stress réactif aux différences interindividuelles dans la perception de la douleur aiguë chez des patients souffrant de douleur chronique et chez des sujets normaux. Les deux groupes ont montré des augmentations significatives du niveau de cortisol en réponse à des stimulations nocives administrées dans un contexte d’IRM suggérant ainsi que la réactivité de l’axe hypothalamo-hypophyso-surrénalien est préservée chez les patients lombalgiques. De plus, les individus présentant une réponse hormonale de stress plus forte ont rapporté moins de douleur et ont montré une réduction de l'activation cérébrale dans le noyau accumbens, dans le cortex cingulaire antérieur (CCA), le cortex somatosensoriel primaire, et l'insula postérieure. Des analyses de médiation ont indiqué que la douleur liée à l'activité du CCA explique statistiquement la relation entre la réponse de stress et le désagrément de la douleur rapportée par les participants. Enfin, des analyses complémentaires ont révélé que le stress réduit la connectivité fonctionnelle entre le CCA et le tronc cérébral pendant la douleur aiguë. Ces résultats indiquent que le stress réactif module la douleur et contribue à la variabilité interindividuelle de l'activité cérébrale et la réponse affective à la douleur. Discussion : Conjointement, ces études suggèrent dans un premier temps que la douleur chronique peut être exacerbée par une réponse physiologique inadéquate de l'organisme exposé à un stress récurrent, et en un second temps, que le CCA contribuerait à l'analgésie induite par le stress. Sur le plan conceptuel, ces études renforcent le point de vue prédominant suggérant que la douleur chronique induit des changements dans les systèmes cérébraux régissant les fonctions motivationnelles et affective de la douleur.
Resumo:
Le contrôle postural et la perception des limites de la stabilité sont des processus complexes qui nécessitent le traitement et l’intégration d’informations sensorielles multimodales. Pendant l’enfance, le développement de la stabilité posturale s’effectue de façon non-monotonique. Plusieurs auteurs ont suggéré que ce profil non linéaire serait provoqué par une période de recalibration des systèmes sensoriels. Cette phase, nommée période de transition, est observée vers l’âge de 6-7 ans. Nous disposons toutefois de très peu d’information sur le rôle spécifique des afférences et des mécanismes d’intégration sensorielle au cours du développement postural. Les dysfonctions dans les noyaux gris centraux, telles que ceux observés dans la maladie de Parkinson, ont été associées à divers déficits dans le contrôle de la posture, dans le traitement et l’intégration sensoriel plus particulièrement, au niveau des informations proprioceptives. De plus, les limites fonctionnelles de la stabilité posturale des personnes atteintes de la maladie de Parkinson sont significativement réduites. Cependant, les connaissances concernant comment certaines pathologies des noyaux gris centraux, telles que le syndrome Gilles de la Tourette (SGT) et la maladie de Huntington (MH) affectent la capacité d’utiliser les informations sensorielles pour contrôler la posture demeurent à ce jour, incomplètes. Cette thèse porte sur le rôle des noyaux gris centraux dans les processus de traitements et d’intégration sensorielle, particulièrement les afférences proprioceptives dans le contrôle de la posture au cours du développement de l’enfant en santé, atteint du SGT et chez l’adulte atteint de la MH avec et sans symptôme clinique. Notre protocole expérimental a été testé chez ces trois populations (enfants en santé, SGT et MH). Nous avons utilisé des mesures quantitatives à partir de données issues d’une plateforme de force afin d’évaluer les ajustements posturaux dans les limites de la stabilité posturale. Les participants devaient s’incliner le plus loin possible dans quatre différentes directions (avant, arrière, droite et gauche) et maintenir l’inclinaison posturale maximale pendant 10 secondes. Afin de tester la capacité à traiter et à intégrer les informations sensorielles, la tâche expérimentale a été exécutée dans trois conditions sensorielles : 1) yeux ouverts, 2) yeux fermés et 3) yeux fermés, debout sur une mousse. Ainsi, la contribution relative de la proprioception pour le contrôle postural augmente à travers les conditions sensorielles. Dans la première étude, nous avons évalué la capacité à traiter et à intégrer les informations sensorielles avant (4 ans) et après (8-10 ans) la période de transition comparativement aux adultes. Dans la deuxième et la troisième étude, nous avons également évalué le traitement et l’intégration des informations sensorielles chez les patients atteints de désordres des noyaux gris centraux. La deuxième étude portera spécifiquement sur les adolescents atteints du SGT et la troisième, sur la MH avant et après l’apparition des symptômes cliniques. En somme, les résultats de la première étude ont démontré que la performance des enfants est affectée de façon similaire par les différentes conditions sensorielles avant et après la période de transition. Toutefois, le profil de développement des mécanismes responsables des ajustements posturaux de l’axe antéropostérieur est plus précoce comparativement à ceux de l’axe médiolatéral. Ainsi, nos résultats ne supportent pas l’hypothèse de la période de recalibration des systèmes sensoriels pendant cette période ontogénétique mais suggèrent que la période de transition peut être expliquée par la maturation précoce des mécanismes d’ajustements posturaux dans l’axe antéropostérieur. Dans l’ensemble, les résultats de nos études chez les populations atteintes de désordres des noyaux gris centraux (MH et SGT) démontrent non seulement qu’ils ont des déficits posturaux mais également que les ajustements posturaux dans les deux axes sont affectés par les conditions sensorielles. Pour la première fois, nos études démontrent des déficits globaux de traitements et d’intégration sensorielle accentués pour les signaux proprioceptifs. Ces résultats sont similaires à ceux observés dans la maladie de Parkinson. De plus, les adolescents atteints du SGT éprouvent également des troubles posturaux marqués dans la condition visuelle ce qui suggère des déficits d’intégrations visuelles et/ou multimodaux.
Resumo:
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.
Resumo:
La création cinématographique de l’étudiant qui accompagne ce mémoire sous la forme d’un DVD est disponible à la Médiathèque de la Bibliothèque des lettres et sciences humaines sous le titre : She is Lars.(http://atrium.umontreal.ca/notice/UM-ALEPH002343877)
Resumo:
Les modèles animaux d’arthrose sont utilisés sur le rat depuis des décennies pour évaluer l’efficacité analgésique de nombreux composés. Cependant, la méthodologie utilisée, en particulier les protocoles d’évaluation de la douleur, est très différente d’une étude à une autre, rendant difficile la comparaison entre chaque projet. Afin d'améliorer le transfert des résultats précliniques vers la recherche clinique, ce projet propose d'établir un protocole d'évaluation de la douleur fiable et pertinent, et de le valider à l’aide du modèle d’arthrose expérimental le plus populaire, soit l’injection intra-articulaire de mono-iodoacétate de sodium (MIA). La répétabilité et la fiabilité inter-évaluateur de diverses méthodes d’évaluation de la douleur ont été évaluées, et le protocole d'acclimatation le plus fiable a été déterminé. Ensuite, les méthodes les plus intéressantes ont été testées pour leur sensibilité à détecter les altérations douloureuses induites par l’injection de MIA, ainsi que leur réponse au traitement analgésique, soit une injection intra-articulaire de lidocaïne. Une période d'acclimatation adéquate associée à un protocole d'évaluation combinant des mesures réflexes, des comportements spontanés ainsi que des tests opérants ont témoigné avec succès des changements douloureux liés à l'injection de MIA. Le test opérant fut la méthode la plus sensible pour détecter l'effet analgésique de la lidocaïne. Cette étude a permis d’établir le protocole d’acclimatation et les méthodes de l’évaluation de la douleur les plus fiables et sensibles. Aussi, il a démontré la pertinence du test opérant pour détecter la composante affective de la douleur chez les rongeurs.
Resumo:
Le premier volet de ce travail portera sur l’expérience acquise lors d’un stage d’étude à Tokyo, au Japon, dans le groupe de recherche du Pr. Makoto Fujita, une sommité d’envergure internationale dans le domaine de l’auto-assemblage. En continuité avec les plus récents travaux du Pr. Fujita, des systèmes poreux auto-assemblés présentant des cavités fonctionnalisées ont été développés dans le but d’encapsuler des acides gras afin d’en déterminer la structure cristalline. Ces éponges ont été caractérisées par des techniques courantes telles que la spectroscopie à résonance magnétique nucléaire 1H, 13C{1H} et Cosy, la spectrométrie de masse, l’analyse élémentaire, la microscopie optique infrarouge ainsi que la diffraction des rayons X. Une autre approche employée pour obtenir de meilleures propriétés spectroscopiques fut la synthèse de dendrimères métalliques de génération 0. Un nouveau ligand de type 1,3,5-triazine a été synthétisé par une réaction typique de cyclisation de nitrile en présence catalytique d’hydrure de sodium. Des espèces mono-, bis- et trinucléaire de Ru(II) furent synthétisés ainsi que deux espèces hétérométalliques de Ru(II)/Pt(II) et de Ru(II)/Os(II). Tous les complexes obtenus furent caractérisés par spectroscopie à résonance magnétique nucléaire (1H, 13C{1H} et Cosy) à l’état liquide, par spectroscopie de masse à haute résolution et par analyse élémentaire. La génération de dihydrogène à partir de l’espèce hétérométallique a été étudiée. Les propriétés optiques et électroniques ont été analysées par spectroscopie UV-Vis, par analyse de la luminescence, du temps de vie de luminescence, par des analyses de rendement quantique ainsi que par des analyses de voltampérométrie cyclique à balayage. Finalement, dans le but d’améliorer les propriétés spectroscopiques d’absorption de complexes métalliques, nous avons synthétisé une série de polymères homo- et hétérométalliques, intégrant des ligands de type bis(2,2’:6,2’’-terpyridine). Les complexes générés furent caractérisés par diverses techniques tel que la spectroscopie à résonance magnétique nucléaire (1H, 13C{1H} et Cosy) à l’état liquide, par spectroscopie de masse à haute résolution ainsi que par analyse élémentaire. Les propriétés optiques et électroniques ont été analysées par spectroscopie UV-Vis, par analyse de la luminescence, du temps de vie de luminescence, par des analyses de rendement quantique ainsi que par des analyses de voltampérométrie cyclique à balayage.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
L’objectif général de cette thèse était d’explorer le développement personnel de jeunes à risque de délinquance et de décrochage scolaire à travers leur participation à un programme d’intervention psychosociale nommé « Bien dans mes Baskets » (BdmB). Ce programme utilise le basketball parascolaire comme outil d’intervention et il a comme particularité qu’une bonne partie de ses entraineurs-intervenants détiennent une formation professionnelle en travail social ou domaines connexes. Cette thèse présente les résultats de trois études faisant partie d’un projet de recherche plus vaste portant sur l’évaluation du programme BdmB. Une première étude a exploré le processus de transfert, à d’autres domaines d’activités, des habiletés de vie ciblées par le programme BdmB. Des entretiens semi-directifs ont été réalisés auprès de 14 anciens participants et sept anciennes participantes du programme. Nos résultats suggèrent que trois principaux facteurs semblent avoir joué un rôle dans le processus de transfert des habiletés de vie développées au sein de BdmB, soit la présence de contextes favorisant l’apprentissage expérientiel, la valeur relative accordée aux différents domaines d’activités et la trajectoire de vie. Il ressort également de nos données qu’au-delà du processus de transfert sur une base individuelle, il est possible qu’un transfert puisse s’opérer dans la communauté. L’objectif de la deuxième étude était d’explorer comment et dans quelle mesure les expériences au sein de BdmB ont pu servir de levier au processus d’empowerment. Des entretiens semi-directifs ont été réalisés auprès de sept anciennes participantes de BdmB. Nos résultats suggèrent que la pratique sportive, combinée à une intervention psychosociale, peut contribuer au développement d’un plus grand contrôle sur sa vie. Cette amélioration serait la résultante cumulative de divers apprentissages, dont le développement et le transfert d’habiletés de vie et la capacité à résister aux influences externes négatives présentes dans leurs milieux de vie respectifs, ainsi que l’impact positif des expériences vécues au sein de BdmB sur la persévérance scolaire et les aspirations professionnelles. Une troisième étude avait pour objectif d’évaluer l’impact du programme BdmB sur le sentiment d’appartenance à l’école et la perception de soutien social. Un devis quasi expérimental a été utilisé pour évaluer l’impact du programme auprès des athlètes-étudiants(es) actuels. Le groupe d’intervention était composé des athlètes-étudiants de BdmB et les groupes de comparaison étaient constitués des étudiants de la même école ne participant pas au programme et pratiquant ou non un autre sport. Les individus ont été sondés à deux reprises à l’aide d’un questionnaire auto administré sur une période de deux années scolaires. Les résultats de l’étude indiquent que le groupe BdmB a développé un meilleur sentiment d’appartenance et a perçu un meilleur soutien social par rapport aux groupes de comparaison.
Resumo:
Introduction: Notre laboratoire a précédemment établi que Hoxa9 accélérait l’apparition de leucémie de type B induite par E2A-PBX1. Une analyse par qRT-PCR a montré que les niveaux d’ARN de Flt3, une cible de Hoxa9, étaient 32 fois plus élevés dans les leucémies Hoxa9/E2A-PBX1 par rapport que dans les leucémies E2A-PBX1. Il est important de noter que l’expression aberrante de Flt3 est retrouvée dans les leucémies ALL de type B et les AML. De plus, l’activation constitutive de Flt3 est associée à un faible pronostic. Nous avons posé l’hypothèse que la maintenance/ré-initiation des leucémies de type pré-B induites par E2A-Pbx1 est associée à la présence du récepteur Flt3. Méthodes et Résultats: Premièrement, nous avons analysé par FACS la présence de Flt3 et mesuré l’expression de Flt3 par qRT-PCR des cellules E2A-PBX1 leucémiques pré-B. Nous avons montré que les cellules leucémiques E2A-PBX1 expriment l’ARNm du gène Flt3. Cependant, le récepteur n’était détectable à la surface cellulaire que dans des proportions variant de 0.3 à 28%. Deuxièmement, nous avons évalué le potentiel leucémique des fractions positive et négative pour Flt3. Toutes deux ont été capables de ré-initier la leucémie environ 20 jours après transplantation. Des analyses par FACS ont montré qu’une proportion de cellules leucémiques exprimaient Flt3, incluant même celles provenant de la fraction Flt3-. Troisièmement, une stratégie de perte de fonction de Flt3 par shARN a été mise en œuvre afin d’examiner le rôle de la voie de signalisation de Flt3 dans les cellules leucémiques E2A-PBX1. Pour ce faire, des cellules primaires leucémiques ont été infectées, soit par le shARN anti-Flt3 soit shARN contrôle, et transplantées dans des souris receveuses. Les cellules leucémiques contenant le shARN ont été capables de régénérer la leucémie. Cependant, une proportion des cellules exprimaient toujours Flt3, ce qui indique que l’efficacité des shARn n’était pas suffisante. Conclusion et Perspectives: Nos shARN ne sont pas suffisamment efficaces sur les cellules leucémiques choisies. De ce fait, nous proposons d’utiliser des cellules leucémiques moins agressives tout en réalisant le même set-up expérimental. Des transplantations dans des receveurs KO Flt3-/- seraient également requises afin de réellement étudier l’impact de la voie de signalisation Flt3 dans la ré-initiation leucémique.
Resumo:
La programmation linéaire en nombres entiers est une approche robuste qui permet de résoudre rapidement de grandes instances de problèmes d'optimisation discrète. Toutefois, les problèmes gagnent constamment en complexité et imposent parfois de fortes limites sur le temps de calcul. Il devient alors nécessaire de développer des méthodes spécialisées afin de résoudre approximativement ces problèmes, tout en calculant des bornes sur leurs valeurs optimales afin de prouver la qualité des solutions obtenues. Nous proposons d'explorer une approche de reformulation en nombres entiers guidée par la relaxation lagrangienne. Après l'identification d'une forte relaxation lagrangienne, un processus systématique permet d'obtenir une seconde formulation en nombres entiers. Cette reformulation, plus compacte que celle de Dantzig et Wolfe, comporte exactement les mêmes solutions entières que la formulation initiale, mais en améliore la borne linéaire: elle devient égale à la borne lagrangienne. L'approche de reformulation permet d'unifier et de généraliser des formulations et des méthodes de borne connues. De plus, elle offre une manière simple d'obtenir des reformulations de moins grandes tailles en contrepartie de bornes plus faibles. Ces reformulations demeurent de grandes tailles. C'est pourquoi nous décrivons aussi des méthodes spécialisées pour en résoudre les relaxations linéaires. Finalement, nous appliquons l'approche de reformulation à deux problèmes de localisation. Cela nous mène à de nouvelles formulations pour ces problèmes; certaines sont de très grandes tailles, mais nos méthodes de résolution spécialisées les rendent pratiques.
Resumo:
Les dysfonctions attentionnelles suivant un traumatisme craniocérébral (TCC) compliquent souvent la reprise des activités de la vie quotidienne et influencent négativement le pronostic de réinsertion socio-académique et professionnelle. Or, les cliniciens de réadaptation disposent d’un nombre limité d’outils de remédiation cognitive dont l’efficacité est démontrée et qui sont adaptés à une population francophone. Cette étude vise à démontrer l’efficacité d’un protocole d’entrainement intensif des fonctions attentionnelles : « Attention! Prêt? On s’enTraine! » (Séguin, Lahaie & Beauchamp, 2012), basé sur une adaptation française de l’« Attention Process Training-I » (APT-I; Sohlberg & Mateer, 1987). Dix-sept participants ayant subi un TCC et présentant des déficits attentionnels ont reçu 15 séances d’entrainement attentionnel avec le programme « Attention! Prêt? On s’enTraine! » (n = 8) ou de l’aide aux devoirs (n = 9). Suite à l’intervention, les participants du groupe expérimental ont amélioré leur rendement dans plusieurs fonctions ciblées par l’intervention attentionnelle, notamment au niveau du balayage visuel, de l’attention sélective et de l’alternance attentionnelle. De plus, les gains se sont généralisés à des fonctions connexes, puisqu’une meilleure performance a été retrouvée dans des tâches de mémoire de travail, d’inhibition, de flexibilité cognitive et de planification visuoconstructive. La démonstration de l’effet positif d’un entrainement intensif sur le rendement attentionnel pourrait inciter les cliniciens et chercheurs à développer et à valider d’autres protocoles de remédiation cognitive francophones, pour les fonctions attentionnelles ou d’autres sphères de la cognition. Par le fait même, le pronostic fonctionnel de la clientèle pédiatrique en traumatologie en sera potentialisé.
Resumo:
Le glaucome est la première cause de cécité irréversible à travers le monde. À présent il n’existe aucun remède au glaucome, et les thérapies adoptées sont souvent inadéquates. La perte de vision causée par le glaucome est due à la mort sélective des cellules rétiniennes ganglionnaires, les neurones qui envoient de l’information visuelle de la rétine au cerveau. Le mécanisme principal menant au dommage des cellules rétiniennes ganglionnaires lors du glaucome n’est pas bien compris, mais quelques responsables putatifs ont été proposés tels que l’excitotoxicité, le manque de neurotrophines, la compression mécanique, l’ischémie, les astrocytes réactifs et le stress oxidatif, parmis d’autres. Indépendamment de la cause, il est bien établi que la perte des cellules rétiniennes ganglionnaires lors du glaucome est causée par la mort cellulaire programmée apoptotique. Cependant, les mécanismes moléculaires précis qui déclenchent l’apoptose dans les cellules rétiniennes ganglionnaires adultes sont mal définis. Pour aborder ce point, j’ai avancé l’hypothèse centrale que l’identification de voies de signalisations moléculaires impliquées dans la mort apoptotique des cellules rétiniennes ganglionnaires offrirait des avenues thérapeutiques pour ralentir ou même prévenir la mort de celles-ci lors de neuropathies oculaires telles que le glaucome. Dans la première partie de ma thèse, j’ai caractérisé le rôle de la famille de protéines stimulatrices d’apoptose de p53 (ASPP), protéines régulatrices de la famille p53, dans la mort apoptotique des cellules rétiniennes ganglionnaires. p53 est un facteur de transcription nucléaire impliqué dans des fonctions cellulaires variant de la transcription à l’apoptose. Les membres de la famille ASPP, soit ASPP1, ASPP2 et iASPP, sont des protéines de liaison de p53 qui régulent l’apoptose. Pourtant, le rôle de la famille des ASPP dans la mort des cellules rétiniennes ganglionnaires est inconnu. ASPP1 et ASPP2 étant pro-apoptotiques, l’hypothèse de cette première étude est que la baisse ciblée de ASPP1 et ASPP2 promouvrait la survie des cellules rétiniennes ganglionnaires après une blessure du nerf optique. Nous avons utilisé un modèle expérimental bien caractérisé de mort apoptotique neuronale induite par axotomie du nerf optique chez le rat de type Sprague Dawley. Les résultats de cette étude (Wilson et al. Journal of Neuroscience, 2013) ont démontré que p53 est impliqué dans la mort apoptotique des cellules rétiniennes ganglionnaires, et qu’une baisse ciblée de ASPP1 et ASPP2 par acide ribonucléique d’interference promeut la survie des cellules rétiniennes ganglionnaires. Dans la deuxième partie de ma thèse, j’ai caractérisé le rôle d’iASPP, le membre anti-apoptotique de la famille des ASPP, dans la mort apoptotique des cellules rétiniennes ganglionnaires. L’hypothèse de cette seconde étude est que la surexpression d’iASPP promouvrait la survie des cellules rétiniennes ganglionnaires après axotomie. Mes résultats (Wilson et al. PLoS ONE, 2014) démontrent que le knockdown ciblé de iASPP exacerbe la mort apoptotique des cellules rétiniennes ganglionnaires, et que la surexpression de iASPP par virus adéno-associé promeut la survie des cellules rétiniennes ganglionnaires. En conclusion, les résultats présentés dans cette thèse contribuent à une meilleure compréhension des mécanismes régulateurs sous-jacents la perte de cellules rétiniennes ganglionnaires par apoptose et pourraient fournir des pistes pour la conception de nouvelles stratégies neuroprotectrices pour le traitement de maladies neurodégénératives telles que le glaucome.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.