458 resultados para Formule du nombre de classes de Dirichlet
Resumo:
La tolérance immunitaire dépend de la distinction entre le soi et le non soi par le système immunitaire. Un bris dans la tolérance immunitaire mène à l'auto-immunité, qui peut provoquer la destruction des organes, des glandes, des articulations ou du système nerveux central. Le diabète auto-immun, également connu sous le nom diabète juvénile et diabète de type 1, résulte d'une attaque auto-immune sur les cellules β pancréatiques sécrétrices d’insuline, localisées au niveau des îlots de Langerhans du pancréas. Bien que le diabète auto-immun soit traitable par une combinaison d’injections quotidiennes d’insuline d’origine exogène, de régime et d'exercices, beaucoup de complications chroniques peuvent se manifester chez les patients, y compris, mais non limitées à, la cécité, les maladies cardiovasculaires, l’insuffisance rénale et l'amputation. En raison des nombreuses complications liées au diabète auto-immun à long terme, la recherche continue afin de mieux comprendre tous les facteurs impliqués dans la progression de la maladie dans le but de développer de nouvelles thérapies qui empêcheront, renverseront et/ou traiteront cette maladie. Un rôle primordial dans la génération et l'entretien de la tolérance immunitaire a été attribué au nombre et à la fonction des sous-populations de cellules régulatrices. Une de ces populations est constituée de cellules T CD4-CD8- (double négatives, DN), qui ont été étudiées chez la souris et l'humain pour leur contribution à la tolérance périphérique, à la prévention des maladies et pour leur potentiel associé à la thérapie cellulaire. En effet, les cellules de T DN sont d'intérêt thérapeutique parce qu'elles montrent un potentiel immunorégulateur antigène-spécifique dans divers cadres expérimentaux, y compris la prévention du diabète auto-immun. D’ailleurs, en utilisant un système transgénique, nous avons démontré que les souris prédisposées au diabète auto-immun présentent peu de cellules T DN, et que ce phénotype contribue à la susceptibilité au diabète auto-immun. En outre, un transfert des cellules T DN est suffisant pour empêcher la progression vers le diabète chez les souris prédisposées au diabète auto-immun. Ces résultats suggèrent que les cellules T DN puissent présenter un intérêt thérapeutique pour les patients diabétiques. Cependant, nous devons d'abord valider ces résultats en utilisant un modèle non-transgénique, qui est plus physiologiquement comparable à l'humain. L'objectif principal de cette thèse est de définir la fonction immunorégulatrice des cellules T DN, ainsi que le potentiel thérapeutique de celles-ci dans la prévention du diabète auto-immun chez un modèle non-transgénique. Dans cette thèse, on démontre que les souris résistantes au diabète auto-immun présentent une proportion et nombre absolu plus élevés de cellules T DN non-transgéniques, lorsque comparées aux souris susceptibles. Cela confirme une association entre le faible nombre de cellules T DN et la susceptibilité à la maladie. On observe que les cellules T DN éliminent les cellules B activées in vitro par une voie dépendante de la voie perforine et granzyme, où la fonction des cellules T DN est équivalente entre les souris résistantes et prédisposées au diabète auto-immun. Ces résultats confirment que l'association au diabète auto-immun est due à une insuffisance en terme du nombre de cellules T DN, plutôt qu’à une déficience fonctionnelle. On démontre que les cellules T DN non-transgéniques éliminent des cellules B chargées avec des antigènes d'îlots, mais pas des cellules B chargées avec un antigène non reconnu, in vitro. Par ailleurs, on établit que le transfert des cellules T DN activées peut empêcher le développement du diabète auto-immun dans un modèle de souris non-transgénique. De plus, nous observons que les cellules T DN migrent aux îlots pancréatiques, et subissent une activation et une prolifération préférentielles au niveau des ganglions pancréatiques. D'ailleurs, le transfert des cellules T DN entraîne une diminution d'auto-anticorps spécifiques de l'insuline et de cellules B de centres germinatifs directement dans les îlots, ce qui corrèle avec les résultats décrits ci-dessus. Les résultats présentés dans cette thèse permettent de démontrer la fonction des cellules T DN in vitro et in vivo, ainsi que leur potentiel lié à la thérapie cellulaire pour le diabète auto-immun.
Resumo:
Des études récentes ont montré que le noyau caudé interagissait avec le cortex préfrontal et qu’il pourrait être impliqué dans les fonctions exécutives. Le but de cette thèse était d’étudier la contribution du noyau caudé dans les fonctions exécutives, plus précisément dans des tâches de monitoring et de changement de règle, et d’observer comment ces régions fronto-striatales interagissent avec le réseau par défaut (RPD). Dans un premier temps, nous avons étudié le rôle du noyau caudé dans les deux types de monitoring : le monitoring d’origine interne, consistant à effectuer un suivi sur l’état de l’information en mémoire de travail afin de pouvoir faire un choix subséquent, et dans le monitoring d’origine externe où le suivi sur l’état des items est effectué par l’individu, mais la sélection est exécutée par une source externe. Il a été montré que le cortex préfrontal dorsolatéral (CPFDL) est impliqué dans les deux types de monitoring. À l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), nos résultats ont montré une augmentation significative du signal BOLD au niveau du CPFDL dans les contrastes des conditions de monitoring d’origine interne et monitoring d’origine externe par rapport à la condition contrôle. De manière plus importante, une augmentation significative de l’activité a été observée dans le noyau caudé seulement dans les soustractions impliquant le monitoring d’origine interne par rapport à la condition contrôle, et par rapport à la condition de monitoring d’origine externe. En deuxième lieu, des études ont montré une contribution spécifique des régions fronto-striatales dans l’exécution d’un changement de règle. Toutefois, l’effet d’un changement de règle sur l’activité cérébrale n’a jamais été étudié sur les essais subséquents. À l’aide de l’IRMf, le cortex préfrontal ventrolatéral (CPFVL) et le noyau caudé ont montré une augmentation significative de leur activité lors des changements de règle continus et lors des changements de règles sporadiques par rapport à la condition contrôle, et aussi lors des essais où le maintien d’une même règle devait être effectué pour une courte durée par opposition au contrôle. Cependant, aucune activité fronto-striatale n’a été observée lorsqu’une même règle devait être appliquée pour une plus longue période. De plus, une diminution significative de l’activité du noyau caudé a été observée lors de la répétition de l’exécution d’une même règle suggérant une meilleure intégration de cette dernière. Finalement, plusieurs études ont montré une déactivation du RPD lors de l’exécution de tâches. À l’aide de l’IRMf, nous avons posé l’hypothèse que le RPD serait corrélé négativement avec les régions fronto-striatales lors de l’exécution d’une tâche de changement de règle. Nos résultats montrent une augmentation significative de l’activité des régions fronto-striatales lors d’une augmentation du nombre d’essais de changement de règle consécutif, pendant que le RPD montre une déactivation continue. De façon intéressante, pendant que les régions fronto-striatales montrent une diminution de leur activité lors de l’exécution d’une même règle pour une longue période, le RPD augmente son activité de façon significative. On conclut donc que le noyau caudé joue un rôle important dans la planification d’une nouvelle action lorsque plusieurs possibilités doivent être considérées en mémoire de travail, et ce en même temps. Finalement, le RPD montre une corrélation négative avec les régions fronto-striatales suggérant sa participation dans l’intégration d’une tâche devenant de plus en plus familière.
Resumo:
La question des coûts des soins de santé gagne en intérêt dans le contexte du vieillissement de la population. On sait que les personnes en moins bonne santé, bien que vivant moins longtemps, sont associées à des coûts plus élevés. On s'intéresse aux facteurs associés à des coûts publics des soins de santé plus élevés au niveau individuel, chez les Québécois vivant en ménage privé âgés de 65 ans et plus, présentant au moins un type d’incapacité. À l’aide de modèles de régression, la variation des coûts pour la consultation de professionnels de la santé et la prise de médicaments a été analysée en fonction du nombre d’incapacités ainsi que de la nature de celles-ci. Les informations sur l’état de santé et la situation socio-démographique proviennent de l’Enquête sur les limitations d’activités (EQLA) de 1998, celles sur les coûts du Fichier d’inscription des personnes assurées (FIPA) de la Régie de l’Assurance maladie du Québec (RAMQ), pour la même année. Les résultats montrent que les deux types de coûts considérés augmentent en fonction du nombre d’incapacités. D’autre part, des coûts plus élevés ont été trouvés chez les personnes présentant une incapacité liée à l’agilité concernant la consultation de professionnels de la santé, alors que, concernant la prise de médicaments, le même constat s’applique aux personnes avec une incapacité liée à la mobilité. Les deux types de coûts considérés présentent un niveau plus élevé chez les personnes présentant une incapacité liée au psychisme, en particulier lorsque l’on considère la prise de médicaments. Ces observations soulignent l’intérêt de considérer la nature du problème de santé lorsque l’on étudie les déterminants individuels du niveau des coûts des soins de santé.
Resumo:
Les avancées technologiques liées à l’internet ont permis une démocratisation des outils de communication et une transformation des relations interpersonnelles. L’impact de ces changements s’est ressenti autant dans la sphère légitime que dans les marchés criminels. Ces derniers ont migré, au cours des dernières années, vers des plateformes en ligne qui leur permettent de mieux gérer les risques associés avec leurs activités illégales. Cette thèse s’intéresse à l’impact de l’internet sur la criminalité et sur l’adaptation des criminels à cet environnement virtuel. Ces derniers forment maintenant des communautés en ligne et gardent le contact entre eux à l’aide de salles de clavardage et de forums de discussions. Nous nous intéresserons dans cette thèse à trois formes particulières de crime soit la fraude de propriété intellectuelle (la scène des warez), le piratage d’ordinateurs (les botnets) ainsi que la fraude de données personnelles et financières (le carding). Chacune de ces formes de crime sera analysée à l’aide d’un article publié ou présentement en évaluation. L’article sur la scène des warez décrit l'organisation sociale ainsi que la distribution de la reconnaissance dans la communauté des pirates informatiques. Les systèmes de délinquance (Sutherland, 1947) et l’individualisme réseauté (Boase & Wellman, 2006) sont utilisés pour théoriser l'organisation sociale et la distribution de la reconnaissance dans la scène warez. L’article sur les botnets tente de comprendre la distribution de la réputation dans une communauté de criminels. En utilisant les données d’un forum de discussion où des botmasters louent et achètent des biens et services illégaux, cette recherche modélise les facteurs qui permettent d’augmenter le niveau de réputation de certains acteurs. Finalement l’article sur le carding mesure le lien entre la réputation telle que développée par Glückler & Armbrüster (2003) et la performance criminelle. Notre thèse démontre que l’internet a eu un effet transformateur sur la criminalité à six niveaux : 1) l’augmentation de la facilité à trouver des co-criminels; 2) l’augmentation de la compétition entre les criminels; 3) l’augmentation du nombre de victimes; 4) la diminution des risques d’arrestation; 5) l’augmentation du taux de réussite des criminels et; 6) les changements dans l’équilibre entre criminels, victimes et protecteurs. Elle nous permet également de démontrer l’importance de la réputation, le capital virtuel, dans les marchés criminels en ligne.
Resumo:
La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.
Resumo:
Les acides biliaires sont reconnus comme des tensioactifs d’origine biologique potentiellement applicables dans le domaine pharmaceutique. Leurs structures en font une plateforme idéale pour l’obtention de nouvelles architectures polymères. Des composés synthétisés par polymérisation anionique de dérivés d’oxirane comme l’oxyde d’éthylène, offre des dérivés amphiphiles pegylés démontrant des propriétés d’agrégation intéressantes en vue d’une amélioration de la biocompatibilité et de la capacité d’encapsulation médicamenteuse. Une large gamme d’acides biliaires pegylés (BA(EGn)x) a été préparée avec comme objectif premier leurs applications dans la formulation de principes actifs problématiques. Pour cela, une caractérisation rigoureuse du comportement de ces dérivés (modulation de la longueur (2 < n < 19) et du nombre de bras (2 < x < 4) de PEG) en solution a été réalisée. Dans le but d’améliorer la biodisponibilité de principes actifs lipophiles (cas de l’itraconazole), des nanoémulsions spontanées, composées de BA(EGn)x et d’acide oléique, ont été développées. L’évaluation in vitro, de la toxicité (cellulaire), et de la capacité de solubilisation des systèmes BA(EGn)x, ainsi que les paramètres pharmacocinétiques in vivo (chez le rat), suggèrent une livraison contrôlée par nos systèmes auto-assemblés lors de l’administration orale et intraveineuse. Aussi, la synthèse de copolymères en blocs en étoile à base d’acide cholique pegylés a été effectuée par polymérisation anionique par addition d’un second bloc au caractère hydrophobe de poly(éther d’allyle et de glycidyle) (CA(EGn-b-AGEm)4). Selon le ratio de blocs hydrophiles-hydrophobes CA(EGn-b-AGEm)4, des réponses thermiques en solution (LCST) ont été observées par un point de trouble (Cp) entre 8 oC et 37 oC. Un mécanisme de formation d’agrégats en plusieurs étapes est suggéré. La thiolation des allyles des PAGE permet une fonctionnalisation terminale à haute densité, comparable aux dendrimères. Les caractérisations physico-chimiques des CA(EGn-b-AGEm-NH2)4 et CA(EGn-b-AGEm-COOH)4 indiquent la formation de structures auto-assemblées en solution, sensibles à la température ou au pH. Cette fonctionnalisation élargie le domaine d’application des dérivés d’acides biliaires pegylés en étoile vers la transfection d’ADN, la livraison de siRNA thérapeutiques ou encore à une sélectivité de livraison médicamenteux (ex. sensibilité au pH, greffage ligands).
Resumo:
La leucémie myéloïde aigue (LMA), cancer du sang causé par une prolifération excessive des précurseurs myéloïdes à un stade précoce de maturation, est associée à une survie variant entre 20 et 30% à cinq ans en dépit des traitements de chimiothérapie les plus intensifs. L’antigène CD33 est exprimé chez les cellules malignes dans 90% des LMA ce qui en fait une cible de choix pour le développement d’immunoconjugué (IC). Trois IC composés d’un anticorps monoclonal anti-CD33 couplé à la maytansine, une toxine s’attaquant aux fuseaux mitotiques, ont été créés. Nous avons étudié l’effet de ces IC sur des cellules primaires et des lignées cellulaires LMA et étudier les mécanismes pouvant expliquer différents niveaux de sensibilité. Les études effectuées ont permis de déterminer que le niveau d’expression du CD33 n’explique pas la variation de sensibilité face aux IC. Il a été démontré que les IC anti-CD33 sont internalisés rapidement par la cellule et que le conjugué est retrouvé au niveau de l’endosome en premier lieu. Il a été confirmé que le lysosome est essentiel à l’effet anti-mitotique induit par le conjugué. Aussi, il est proposé que la protéine SOCS3 pourrait jouer un rôle dans la résistance aux IC anti-CD33 en dirigeant le complexe IC-CD33-SOCS3 vers le protéasome et ainsi empêcher la libération du composé toxique par le lysosome. Nous avons aussi conclu que les variations d’agent de liaison et l’augmentation du nombre de molécules toxiques entre les 3 IC n’ont pas été suffisantes pour augmenter leur efficacité à éliminer les cellules LMA. L’évaluation de ces IC ainsi que l’identification des mécanismes de résistance permettra de cibler les patients les plus susceptibles de bénéficier de ce type de traitement et potentiellement d’identifier de nouvelles voies pour améliorer l’efficacité des traitements.
Resumo:
Introduction: La stomatite prothétique est une condition inflammatoire chronique de la muqueuse buccale recouverte par une prothèse. Cette maladie est considérée comme la lésion buccale la plus fréquente chez les porteurs de prothèses amovibles. Des études récentes sur l'étiologie de la stomatite prothétique suggèrent que des traitements basés sur la réduction de l'inflammation seraient efficaces dans le traitement de cette maladie. Objectifs: Évaluer l'efficacité du brossage du palais dans le traitement de la stomatite prothétique. Méthodes: Quarante-huit participants (âge moyen : 66,0 ± 11,2 ans) avec un diagnostic de stomatite prothétique, ont été sélectionnés à partir d’un examen préalable de 143 individus, afin de participer à cet essai clinique de phase I à deux centres, réalisé selon un devis de type pré-test/post-test à un seul groupe. L'intervention a consisté en un brossage du palais avec une brosse manuelle après chaque repas et avant le coucher. Des examens cliniques et microbiologiques ont été effectués avant le traitement, et à 1 mois et 3 mois de suivi. Des données supplémentaires ont été obtenues par l'utilisation d'un questionnaire validé. Les résultats primaires et secondaires étaient, respectivement, la rémission de stomatite prothétique et la diminution du nombre de colonies de Candida. Des tests statistiques descriptifs et non paramétriques ont été menés pour analyser les données. Résultats: À 3 mois de suivi, 10,4 % des participants ont été guéris et 70,8 % ont eu une amélioration clinique de la stomatite prothétique grâce au brossage du palais. Une réduction statistiquement significative de la surface et de l’intensité de l’inflammation après 3 mois de brossage du palais a été démontrée (p < 0,0001). L’ampleur de l’effet a varié d’un effet modéré à important (0,34 à 0,54) selon la classification utilisée pour le diagnostique de la stomatite prothétique. De plus, le nombre de colonies de Candida, recueillies par sonication des prothèses et par échantillonnage du palais, a diminué de manière statistiquement significative après 3 mois de brossage (p ≤ 0,05). Conclusion: Les résultats de cette étude suggèrent que le brossage du palais est efficace comme traitement de la stomatite prothétique.
Resumo:
Ces dernières années, la découverte de fraudes scientifiques majeures a créé des ondes de choc dans la communauté scientifique. Le nombre annuel de rétractations a considérablement augmenté, et la plupart sont dues à des cas de fraude. Bien qu’il soit généralement pris pour acquis que tous les coauteurs sont affectés par ces rétractations, l’objectif de cette étude est de vérifier cette présupposition empiriquement. Nous avons recensé toutes les rétractations du domaine biomédical (443) de 1996 à 2006 dans PubMed et mesuré, à l’aide du Web of Science (WOS), la productivité, l’impact et les pratiques de collaboration des coauteurs (1 818) sur une période de cinq ans avant et après la rétractation. Nos résultats montrent que les rétractations ont des conséquences sur la carrière des coauteurs, surtout au niveau du nombre de publications des années subséquentes. Cet impact est plus grand dans les cas de fraude, et pour les premiers auteurs.
Resumo:
En opération depuis 2008, l’expérience ATLAS est la plus grande de toutes les expériences au LHC. Les détecteurs ATLAS- MPX (MPX) installés dans ATLAS sont basés sur le détecteur au silicium à pixels Medipix2 qui a été développé par la collaboration Medipix au CERN pour faire de l’imagerie en temps réel. Les détecteurs MPX peuvent être utilisés pour mesurer la luminosité. Ils ont été installés à seize différents endroits dans les zones expérimentale et technique d’ATLAS en 2008. Le réseau MPX a recueilli avec succès des données indépendamment de la chaîne d’enregistrement des données ATLAS de 2008 à 2013. Chaque détecteur MPX fournit des mesures de la luminosité intégrée du LHC. Ce mémoire décrit la méthode d’étalonnage de la luminosité absolue mesurée avec les détectors MPX et la performance des détecteurs MPX pour les données de luminosité en 2012. Une constante d’étalonnage de la luminosité a été déterminée. L’étalonnage est basé sur technique de van der Meer (vdM). Cette technique permet la mesure de la taille des deux faisceaux en recouvrement dans le plan vertical et horizontal au point d’interaction d’ATLAS (IP1). La détermination de la luminosité absolue nécessite la connaissance précise de l’intensité des faisceaux et du nombre de trains de particules. Les trois balayages d’étalonnage ont été analysés et les résultats obtenus par les détecteurs MPX ont été comparés aux autres détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. La luminosité obtenue à partir des balayages vdM a été comparée à la luminosité des collisions proton- proton avant et après les balayages vdM. Le réseau des détecteurs MPX donne des informations fiables pour la détermination de la luminosité de l’expérience ATLAS sur un large intervalle (luminosité de 5 × 10^29 cm−2 s−1 jusqu’à 7 × 10^33 cm−2 s−1 .
Resumo:
Les suspensivores ont la tâche importante de séparer les particules de l'eau. Bien qu'une grande gamme de morphologies existe pour les structures d'alimentation, elles sont pratiquement toutes constituées de rangées de cylindres qui interagissent avec leur environnement fluide. Le mécanisme de capture des particules utilisé dépend des contraintes morphologiques, des besoins énergétiques et des conditions d'écoulement. Comme nos objectifs étaient de comprendre ces relations, nous avons eu recours à des études de comparaison pour interpréter les tendances en nature et pour comprendre les conditions qui provoquent de nouveaux fonctionnements. Nous avons utilisé la dynamique des fluides numérique (computational fluid dynamics, CFD) pour créer des expériences contrôlées et pour simplifier les analyses. Notre première étude démontre que les coûts énergétiques associés au pompage dans les espaces petits sont élevés. De plus, le CFD suggère que les fentes branchiales des ptérobranches sont des structures rudimentaires, d'un ancêtre plus grande. Ce dernier point confirme l'hypothèse qu'un ver se nourrit par filtration tel que l'ancêtre des deuterostomes. Notre deuxième étude détermine la gamme du nombre de Reynolds number critique où la performance d'un filtre de balane change. Quand le Re est très bas, les différences morphologiques n'ont pas un grand effet sur le fonctionnement. Cependant, une pagaie devient une passoire lorsque le Re se trouve entre 1 et 3,5. Le CFD s’est dévoilé être un outil très utile qui a permis d’obtenir des détails sur les microfluides. Ces études montrent comment la morphologie et les dynamiques des fluides interagissent avec la mécanisme de capture ou de structures utilisées, ainsi que comment des petits changements de taille, de forme, ou de vitesse d'écoulement peuvent conduire à un nouveau fonctionnement.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Le système ubiquitine-protéasome est le principal mécanisme par lequel les protéines intracellulaires sont dégradées. Le protéasome dit constitutif (PC) est donc essentiel à l’homéostasie mais aussi à la régulation de la majorité des processus cellulaires importants. La découverte d’un deuxième type de protéasome, appelé immunoprotéasome (IP), soulève toutefois de nouvelles questions. Pourquoi existe-t-il plus d’un type de protéasome ? L’IP a-t-il des rôles redondants ou complémentaires avec le PC ? L’IP étant présent principalement dans les cellules immunitaires ou stimulées par des cytokines, plusieurs groupes ont tenté de définir son rôle dans la réponse immunitaire. Or, l’implication de son homologue constitutif dans un éventail de processus non spécifiquement immunitaires nous laisse croire que l’IP pourrait lui aussi avoir un impact beaucoup plus large. L’objectif de cette thèse était donc de caractériser certains rôles cellulaires de l’IP dans les cellules dendritiques. Nous avons d’abord étudié l’impact global de l’IP sur la présentation antigénique de classe I. Ce faisant, nous avons pu déterminer ses deux contributions principales, soit l’augmentation drastique du nombre et de la diversité des peptides présentés sur les complexes majeurs d’histocompatibilité de classe I. Les différences de clivage entre le PC et l’IP pourraient expliquer en partie cette diversité du répertoire peptidique, notamment par l’affinité apparente de l’IP pour les régions protéiques non structurées. Dans un deuxième temps, nous avons dévoilé un nouveau rôle de l’IP sur un processus dépassant le cadre immunitaire : la transcription. Nous avons découvert que l’IP modifie l’abondance des ARNm en agissant principalement au niveau de leur synthèse. L’impact de l’IP sur le transcriptome est majeur et serait dû en partie à une dégradation différente de facteurs de transcription des familles IRF, STAT et NF-kB. Les cellules dendritiques IP-déficientes activent moins efficacement les lymphocytes T CD8+ et nous croyons que cette défaillance est causée (du moins en partie) par la perturbation transcriptomique provoquée par l’absence d’IP. Il importe donc de comprendre les différents rôles moléculaires de l’IP afin de mieux définir sa contribution globale au fonctionnement de la cellule et comprendre l’avantage évolutif, au niveau de l’organisme, procuré par une telle plasticité du système ubiquitine-protéasome.
Resumo:
Dans ma thèse, je me sers de modèles de recherche solides pour répondre à des questions importantes de politique publique. Mon premier chapitre évalue l’impact causal de l’allégeance partisane (républicain ou démocrate) des gouverneurs américains sur le marché du travail. Dans ce chapitre, je combine les élections des gouverneurs avec les données du March CPS pour les années fiscales 1977 à 2008. En utilisant un modèle de régression par discontinuité, je trouve que les gouverneurs démocrates sont associés à de plus faibles revenus individuels moyens. Je mets en évidence que cela est entrainée par un changement dans la composition de la main-d’oeuvre à la suite d’une augmentation de l’emploi des travailleurs à revenus faibles et moyens. Je trouve que les gouverneurs démocrates provoquent une augmentation de l’emploi des noirs et de leurs heures travaillées. Ces résultats conduisent à une réduction de l’écart salarial entre les travailleurs noir et blanc. Mon deuxième chapitre étudie l’impact causal des fusillades qui se produisent dans les écoles secondaires américaines sur les performances des éléves et les résultats des écoles tels que les effectifs et le nombre d’enseignants recruté, a l’aide d’une stratégie de différence-en-différence. Le chapitre est coécrit avec Dongwoo Kim. Nous constatons que les fusillades dans les écoles réduisent significativement l’effectif des élèves de 9e année, la proportion d’élèves ayant un niveau adéquat en anglais et en mathématiques. Nous examinons aussi l’effet hétérogene des tueries dans les écoles secondaires entre les crimes et les suicides. Nous trouvons que les fusillades de natures criminelles provoquent la diminution du nombre d’inscriptions et de la proportion d’élèves adéquats en anglais et mathématiques. En utilisant des données sur les élèves en Californie, nous confirmons qu’une partie de l’effet sur la performance des élèves provient des étudiants inscrits et ce n’est pas uniquement un effet de composition. Mon troisième chapitre étudie l’impact des cellulaires sur la performance scolaire des élèves. Le chapitre est coécrit avec Richard Murphy. Dans ce chapitre, nous combinons une base de données unique contenant les politiques de téléphonie mobile des écoles obtenues à partir d’une enquète auprès des écoles dans quatre villes en Angleterre avec des données administratives sur la performance scolaire des éleves. Nous étudions ainsi l’impact de l’introduction d’une interdiction de téléphonie mobile sur le rendement des éleves. Nos résultats indiquent qu’il y a une augmentation du rendement des éleves après l’instauration de l’interdiction des cellulaires à l’école, ce qui suggère que les téléphones mobiles sont sources de distraction pour l’apprentissage et l’introduction d’une interdiction à l’école limite ce problème.
Resumo:
L’hypothyroïdie congénitale par dysgénésie thyroïdienne (HCDT) est la condition endocrinienne néonatale la plus fréquemment rencontrée, avec une incidence d’un cas sur 4000 naissances vivantes. L’HCDT comprend toutes les anomalies du développement de la thyroïde. Parmi ces anomalies, le diagnostic le plus fréquent est l’ectopie thyroïdienne (~ 50% des cas). L’HCDT est fréquemment associée à un déficit sévère en hormones thyroïdiennes (hypothyroïdisme) pouvant conduire à un retard mental sévère si non traitée. Le programme de dépistage néonatal assure un diagnostic et un traitement précoce par hormones thyroïdiennes. Cependant, même avec un traitement précoce (en moyenne à 9 jours de vie), un retard de développement est toujours observé, surtout dans les cas les plus sévères (c.-à-d., perte de 10 points de QI). Bien que des cas familiaux soient rapportés (2% des cas), l’HCTD est essentiellement considérée comme une entité sporadique. De plus, plus de 92% des jumeaux monozygotiques sont discordants pour les dysgénésies thyroïdiennes et une prédominance féminine est rapportée (spécialement dans le cas d’ectopies thyroïdiennes), ces deux observations étant clairement incompatible avec un mode de transmission héréditaire mendélien. Il est donc cohérent de constater que des mutations germinales dans les facteurs de transcription thyroïdiens connus (NKX2.1, PAX8, FOXE1, and NKX2.5) ont été identifiées dans seulement 3% des cas sporadiques testés et furent, de plus, exclues lors d’analyse d’association dans certaines familles multiplex. Collectivement, ces données suggèrent que des mécanismes non mendéliens sont à l’origine de la majorité des cas de dysgénésie thyroïdienne. Parmi ces mécanismes, nous devons considérer des modifications épigénétiques, des mutations somatiques précoces (au stade du bourgeon thyroïdien lors des premiers stades de l’embryogenèse) ou des défauts développementaux stochastiques (c.-à-d., accumulation aléatoire de mutations germinales ou somatiques). Voilà pourquoi nous proposons un modèle «2 hits » combinant des mutations (épi)génétiques germinales et somatiques; ce modèle étant compatible avec le manque de transmission familial observé dans la majorité des cas d’HCDT. Dans cette thèse, nous avons déterminé si des variations somatiques (épi)génétiques sont associées à l’HCTD via une approche génomique et une approche gène candidat. Notre approche génomique a révélé que les thyroïdes ectopiques ont un profil d’expression différent des thyroïdes eutopiques (contrôles) et que ce profil d’expression est enrichi en gènes de la voie de signalisation Wnt. La voie des Wnt est cruciale pour la migration cellulaire et pour le développement de plusieurs organes dérivés de l’endoderme (p.ex. le pancréas). De plus, le rôle de la voie des Wnt dans la morphogénèse thyroïdienne est supporté par de récentes études sur le poisson-zèbre qui montrent des anomalies du développement thyroïdien lors de la perturbation de la voie des Wnt durant différentes étapes de l’organogénèse. Par conséquent, l’implication de la voie des Wnt dans l’étiologie de la dysgénésie thyroïdienne est biologiquement plausible. Une trouvaille inattendue de notre approche génomique fut de constater que la calcitonine était exprimée autant dans les thyroïdes ectopiques que dans les thyroïdes eutopiques (contrôles). Cette trouvaille remet en doute un dogme de l’embryologie de la thyroïde voulant que les cellules sécrétant la calcitonine (cellules C) proviennent exclusivement d’une structure extrathyroïdienne (les corps ultimobranchiaux) fusionnant seulement avec la thyroïde en fin de développement, lorsque la thyroïde a atteint son emplacement anatomique définitif. Notre approche gène candidat ne démontra aucune différence épigénétique (c.-à-d. de profil de méthylation) entre thyroïdes ectopiques et eutopiques, mais elle révéla la présence d’une région différentiellement méthylée (RDM) entre thyroïdes et leucocytes dans le promoteur de FOXE1. Le rôle crucial de FOXE1 dans la migration thyroïdienne lors du développement est connu et démontré dans le modèle murin. Nous avons démontré in vivo et in vitro que le statut de méthylation de cette RDM est corrélé avec l’expression de FOXE1 dans les tissus non tumoraux (c.-à-d., thyroïdes et leucocytes). Fort de ces résultats et sachant que les RDMs sont de potentiels points chauds de variations (épi)génétiques, nous avons lancé une étude cas-contrôles afin de déterminer si des variants génétiques rares localisés dans cette RDM sont associés à la dysgénésie thyroïdienne. Tous ces résultats générés lors de mes études doctorales ont dévoilé de nouveaux mécanismes pouvant expliquer la pathogenèse de la dysgénésie thyroïdienne, condition dont l’étiologie reste toujours une énigme. Ces résultats ouvrent aussi plusieurs champs de recherche prometteurs et vont aider à mieux comprendre tant les causes des dysgénésies thyroïdiennes que le développement embryonnaire normal de la thyroïde chez l’homme.