55 resultados para "Naïve Bayes Classifier"
Resumo:
Eph kinases are the largest family of cell surface receptor tyrosine kinases. The ligands of Ephs, ephrins (EFNs), are also cell surface molecules. Ephs interact with EFNs and the receptors and ligands transmit signals in both directions, i.e., from Ephs to EFNs and from EFNs to Ephs. Ephs and EFNs are widely involved in various developmental, physiological pathophysiological processes. Our group and others have reported the roles of Ephs/EFNs in the immune system. To further investigate the function of EphBs/EFNBs in T cell development and responses, we generated EFNB1, EFNB2, EphB4 conditional gene knockout (KO) mice and EFNB1/2 double KO mice. In the projects using EFNB1 and EFNB2 knockout mice, we specifically deleted EFNB1 or EFNB2 in T cells. The mice had normal size and cellularity of the thymus and spleen as well as normal T cell subpopulations in these organs. The bone marrow progenitors from KO mice and WT mice repopulated the host lymphoid organs to similar extents. The activation and proliferation of KO T cells was comparable to that of control mice. Naïve KO CD4 cells differentiated into Th1, Th2, Th17 and Treg cells similar to naïve control CD4 cells. In EFNB2 KO mice, we observed a significant relative increase of CD4CD8 double negative thymocytes in the thymus. Flowcytometry analysis revealed that there was a moderate increase in the DN3 subpopulation in the thymus. This suggests that EFNB2 is involved in thymocyte development. Our results indicate that the functions of EFNB1 and EFNB2 in the T cell compartment could be compensated by each other or by other members of the EFN family, and that such redundancy safeguards the pivotal roles of EFNB1 and EFNB2 in T cell development and function. In the project using EFNB1/B2 double knockout (dKO) model, we revealed a novel regulatory function of EFNb1 and EFNb2 in stabilizing IL-7Rα expression on the T cell surface. IL-7 plays important roles in thymocyte development, T cell homeostasis and survival. IL-7Rα undergoes internalization upon IL-7 binding. In the dKO mice, we observed reduced IL-7Rα expression in thymocytes and T cells. Moreover, the IL-7Rα internalization was accelerated in dKO CD4 cells upon IL-7 stimulation. In T cell lymphoma cell line, EL4, over-expression of either EFNB1 or EFNB2 retarded the internalization of IL-7Rα. We further demonstrated compromised IL-7 signaling and homeostatic proliferation of dKO T cells. Mechanism study using fluorescence resonance energy transfer and immunoprecipitation demonstrated that physical interaction of EFNB1 and EFNB2 with IL-7Rα was likely responsible for the retarded IL-7Rα internalization. In the last project, using medullary thymic epithelial cell (mTEC)-specific EphB4 knockout mice, we investigated T cell development and function after EphB4 deletion in mTEC. EphB4 KO mice demonstrated normal thymic weight and cellularity. T cell development and function were not influenced by the EphB4 deletion. Lastly, the KO mice developed normal delayed type hypersensitivity. Overall, our results suggest that comprehensive cross interaction between Eph and EFN family members could compensate function of a given deleted member in the T cell development, and only simultaneous deletion of multiple EFNBs will reveal their true function in the immune system. In fact, such redundancy signifies vital roles of Ephs and EFNs in the immune system.
Resumo:
The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.
Resumo:
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Dans la sémantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte événementiel ou situationnel dans lequel ils s’inscrivent. FrameNet, une ressource lexicale pour l’anglais, définit environ 1000 cadres conceptuels, couvrant l’essentiel des contextes possibles. Dans un cadre conceptuel, un prédicat appelle des arguments pour remplir les différents rôles sémantiques associés au cadre (par exemple : Victime, Manière, Receveur, Locuteur). Nous cherchons à annoter automatiquement ces rôles sémantiques, étant donné le cadre sémantique et le prédicat. Pour cela, nous entrainons un algorithme d’apprentissage machine sur des arguments dont le rôle est connu, pour généraliser aux arguments dont le rôle est inconnu. On utilisera notamment des propriétés lexicales de proximité sémantique des mots les plus représentatifs des arguments, en particulier en utilisant des représentations vectorielles des mots du lexique.
Resumo:
La candidose oro-pharyngée (COP) est l’infection fongique opportuniste la plus commune chez les individus infectés par le VIH-1. La production des cytokines Il-17 et Il-22 par les lymphocytes Th17 est importante lors de la résolution de la COP, puisque ces cytokines induisent la production de peptides antifongiques et le recrutement des neutrophiles polymorphonucléaires. Toutefois, les lymphocytes Th17 sont préférentiellement déplétés chez les individus infectés par le VIH-1. Le modèle de COP chez la souris transgénique (Tg) CD4C/HIVMutA, exprimant les gènes nef, env et rev du VIH-1, permettra de déterminer si des altérations quantitatives et/ou fonctionnelles des sous-populations de lymphocytes T CD4+ causent la sensibilité à la candidose. Les sous-populations Th1, Th2, Th1Th17, Th17 et Treg, ainsi que leurs précurseurs, les lymphocytes T CD4+ naïfs, sont sévèrement déplétées dans les ganglions cervicaux de la souris Tg. Cependant, les lymphocytes T CD4+ naïfs conservent la capacité à se différencier in vitro en présence de cytokines polarisantes et à produire les cytokines typiques des diverses sous-populations. De plus, les cytokines requises pour la polarisation des lymphocytes T CD4+ naïfs n’étaient pas réduites dans les ganglions cervicaux des souris Tg, 7 jours après le début de l’infection. Les gènes S100a8, Ccl20, Il17 et Il22 étaient surexprimés en réponse à la COP chez la souris non-Tg, mais pas chez la souris Tg. Le traitement de souris Tg infectées à l’aide de la combinaison des cytokines Il-17 et Il-22 réduit significativement la charge fongique buccale de C. albicans et le nombre d’hyphes dans l’épithélium de la langue et restaure la capacité à surexprimer des gènes S100a8, Ccl20 et Il22. Ces résultats démontrent que la perturbation de l’induction de l’immunité innée par l’Il-17 et l’Il-22 augmente la susceptibilité à la COP chez la souris Tg.
Resumo:
Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.
Resumo:
Le virus de l’hépatite C (VHC) infecte ~185 millions d’individus dans le monde. Malgré le développement des nouvelles thérapies dirigées contre le VHC, on compte deux millions de nouvelles infections chaque année, en particulier dans les pays sous-développés et les populations marginalisées. Comme pour la plupart des virus à infection chronique, le développement d’un vaccin prophylactique efficace est limité par le manque de caractérisation des déterminants de la mémoire immunitaire protectrice lors des épisodes de réinfection naturelle chez les êtres humains. Le VHC représente un modèle unique au sein des virus à infection chronique pour étudier l’immunité protectrice. En effet ~30% des patients infectés par le VHC peuvent être guéris suite à un premier épisode d’infection spontanément. Dans cette thèse, nous avons étudié l’immunité protectrice contre le VHC dans une cohorte d’utilisateurs de drogues par injection qui sont à risque d’être infectés ou réinfectés. Notre hypothèse est que la majorité des patients qui ont résolu une première infection par le VHC sont protégés contre le développement d’une infection chronique s’ils sont réexposés. Cette immunité protectrice est associée à la présence des cellules T CD4 et CD8 polyfonctionnelles qui possèdent des fréquences, magnitudes et avidités élevées. La capacité protectrice des cellules T mémoire contre les séquences variables du VHC est dépendante de la diversité et flexibilité du répertoire de leurs récepteurs de cellules T (TCR), qui reconnaissent les séquences variables des épitopes ciblés. Notre premier objectif était de définir et détailler les déterminants de l’immunité protectrice conférée par les cellules T spécifiques du VHC. Nos résultats ont montré que la protection pendant l’épisode de réinfection était associée à une augmentation de la magnitude et du spectre des réponses spécifiques par les cellules T CD4 et CD8 polyfonctionnelles, ainsi que par l’apparition d’une population de cellules T tétramère+ CD8+ effectrices qui expriment faiblement le marqueur CD127 (CD127lo) lors du pic de la réponse. Chez les patients qui ont développé une infection chronique pendant l’épisode de réinfection, nous avons observé une expansion très limitée des cellules T CD4 et CD8. Le séquençage des épitopes ciblés par les cellules T CD8 chez ces patients qui sont non-protégés a montré que les séquences de ces épitopes sont différentes des séquences de référence qui étaient utilisées pour tous les essais immunologiques de cette étude. Le deuxième objectif était d’analyser la dynamique du répertoire des TCRs des cellules T CD8 spécifiques chez les patients protégés versus les patients non-protégés. Nos résultats ont montré que le répertoire des cellules T CD8 spécifiques est plus focalisé que chez les patients protégés. En plus, nous avons observé que les clonotypes qui forment le répertoire chez les patients protégés sont distincts de ceux chez les patients non-protégés. Ces clonotypes chez les patients protégés ont montré de plus grandes avidité et polyfonctionnalité que leurs homologues chez les patients non-protégés. En conclusion, nos résultats suggèrent que la protection contre le développement d’une infection chronique pendant l’épisode de réinfection par le VHC est associée à une augmentation de la magnitude, du spectre et de la fonctionnalité des réponses des cellules T spécifiques, ainsi qu’à un répertoire des TCRs plus focalisé composé des clonotypes distincts qui possèdent de plus grandes avidité et polyfonctionnalité que chez les patients non-protégés. L’homologie des séquences des souches virales entre les différents épisodes de l’infection est un déterminant majeur de l’établissement d’une protection efficace. Ces résultats ont donc des implications très importantes pour le développement d’un vaccin prophylactique contre le VHC et d’autres virus à infection chronique.
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.
Resumo:
L'interleukine IL-18 (IL-18), un membre de la famille de l’IL-1, est une cytokine pro-inflammatoire multifonctionnelle. Elle est produite par les monocytes, les macrophages, les cellules dendritiques, les cellules épithéliales, les kératinocytes et le cortex surrénal dans le corps humain. Cette cytokine est d'abord produite comme une protéine précurseure inactive, qui est par la suite clivée en une forme mature par la caspase-1 activée. La caspase, en elle-même, existe comme précurseur inactif dans les cellules humaines et requiert l'assemblage d'inflammasomes pour son activation. L'IL-18 pour joue un rôle clé dans la médiation des conditions inflammatoires. Notre laboratoire et d'autres ont montré que l'infection par le VIH est accompagnée d'une augmentation des taux circulants d'IL-18 avec une diminution des niveaux de son antagoniste, l'interleukine-18 binding protein (IL-18BP). Dans cette thèse, nous démontrons pour que l'IL-18 est également produite et sécrétée par les plaquettes humaines lors de leur activation. Les plaquettes contiennent des composants de l'inflammasome. Ils assemblent et activent la caspase-1, qui ensuite traite le précurseur de l'IL-18 dans sa forme mature au cours du processus d'activation des plaquettes. La cytokine est synthétisée de novo lors de l'activation des plaquettes. Contrairement à l'IL-18, les plaquettes expriment constitutivement l’IL-18BP, et la libèrent de manière constitutive, ainsi que lors de l'activation. L'IL-18 et l'IL-18BP sont colocalisés avec CD63, un marqueur pour les granules α des plaquettes. L'IL-18 libéré des plaquettes constitue la source principale de cette cytokine dans la circulation humaine chez les individus sains. Nous avons identifié des concentrations faibles de cette cytokine dans les lysats de plaquettes chez les individus infectés par le VIH par rapport à ceux en santé. D'autre part, les concentrations ont été augmentées dans le sérum et le plasma pauvre en plaquettes chez les individus infectés. Des résultats similaires ont été obtenus avec l'IL-18BP dans les lysats de plaquettes d'individus sains et infectés par le VIH. Cependant, des quantités plus faibles de cet antagoniste ont été trouvées dans le sérum et le plasma pauvre en plaquettes d'individus infectés par le VIH par rapport à ceux en santé. Nos résultats ont des implications importantes pour les maladies inflammatoires chroniques dans laquelle une activité accrue de l'IL-18 joue un rôle pathogène. Le VIH est également accompagné par une inflammation intestinale et une diminution de l'intégrité intestinale, mesurée par la réparation de la muqueuse, la régénération et la perméabilité. Cependant, on en sait peu sur la relation entre le niveau élevé de l'IL-18 associé à l'infection au VIH et la perméabilité intestinale: ceci n'a jamais été étudié. Dans cette thèse, nous démontrons le rôle du virus et sa protéine Tat à augmenter la production d'IL-18 chez deux lignées de cellules épithéliales intestinales (HT29 et Caco2) ainsi qu'une diminution de l'IL-18BP. L'IL-18 induit une hyperperméabilité de la barrière épithéliale en perturbant à la fois les jonctions serrées et adhérentes, et ce, en modulant l'expression et la distribution de l'occludine, de claudine-2 et de la bêta-caténine. Une désorganisation de l'actine F a également été observée dans les cellules lors de l'incubation avec l'IL-18. Les mêmes observations ont été faites avec la protéine Tat du VIH-1. Après une incubation prolongée, l'IL-18 a causé la mort des cellules intestinales et induit l'apoptose par l'activation de la caspase-1 et la caspase-3. Fait intéressant, les taux plasmatiques de lipopolysaccharides chez trois catégories différentes de patients au VIH (ART-naïf, ART-traitée et contrôleurs élite) sont en corrélation avec les niveaux plasmatiques de l'IL-18. Enfin, nous avons étudié la voie de signalisation à travers laquelle l'IL-18 induit une perméabilité intestinale accrue. En bref, nos études identifient les plaquettes comme une source importante d'IL-18, et leur activation lors d'une infection à VIH contribue à des concentrations accrues de cette cytokine. Le virus entraine également l'augmentation de la production de cytokines par les cellules épithéliales intestinales. L'activité biologique accrue de ces cytokines contribue à la pathogenèse du sida en augmentant la perméabilité intestinale et en causant la mort des cellules intestinales. L'IL-18 pourrait servir de cible moléculaire pour retarder la progression du sida et réduire l'inflammation chronique dans un stade précoce d'une infection à VIH.