8 resultados para DeepLearning NeuralNetwork StackedDenoisingAuto-encoder ArtificialIntelligence IntelligenzaArtificiale RetiNeurali TimeSeries SerieStoriche SerieTemporali Forecasting Previsione Auto-encoder
em Université de Montréal, Canada
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
Résumé: L’objectif général de la thèse était de caractériser les déficits de reconnaissance mnésique dans la maladie d’Alzheimer et le trouble cognitif léger. La thèse comprend trois articles. Le premier article propose une recension des écrits portant sur les déficits cognitifs dans le trouble cognitif léger, alors que les deux articles suivants rapportent les résultats d’études expérimentales portant sur la reconnaissance. Le but de la première étude empirique était d’évaluer l’impact du type de matériel sur la reconnaissance à long terme et la reconnaissance à court terme dans la maladie d’Alzheimer en comparant l’atteinte pour des stimuli verbaux et musicaux. Nos analyses de groupe ont révélé que les atteintes des personnes avec maladie d’Alzheimer s’étendaient à toutes les épreuves et que les déficits étaient d’une ampleur comparable en reconnaissance musicale et verbale. Les analyses corrélationnelles appuient, bien que partiellement, une certaine spécificité d’atteintes par domaine, particulièrement en reconnaissance à long terme, mais suggèrent également que les deux domaines puissent partager certains mécanismes. L’objectif de la seconde étude était de caractériser les processus utilisés en reconnaissance dans le vieillissement normal et le trouble cognitif léger en fonction de la nouveauté et du type de matériel. L’étude évaluait la recollection et la familiarité à l’aide de la méthode remember/know. Les tâches étaient composées d’items connus et d’items nouveaux faisant partie du domaine verbal ou du domaine musical. Les résultats ont révélé que la recollection était atteinte dans le vieillissement normal et le trouble cognitif léger, mais uniquement pour la reconnaissance de stimuli connus, ce qui est compatible avec le fait que les deux groupes ont de la difficulté à encoder l’information de façon élaborée. D’autre part, la familiarité était compromise dans le vieillissement normal, sans impact additionnel du trouble cognitif léger, et seulement pour la reconnaissance de stimuli inconnus. Cette atteinte peut être associée aux difficultés des aînés dans les tâches d’amorçage perceptif impliquant des items inconnus. Les résultats découlant de ces études s’avèrent pertinents dans une perspective clinique, en plus de pouvoir contribuer à certaines questions d’ordre théorique.
Resumo:
Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.
Resumo:
Alors que les hypothèses de valence et de dominance hémisphérique droite ont longtemps été utilisées afin d’expliquer les résultats de recherches portant sur le traitement émotionnel de stimuli verbaux et non-verbaux, la littérature sur le traitement de mots émotionnels est généralement en désaccord avec ces deux hypothèses et semble converger vers celle du décours temporel. Cette dernière hypothèse stipule que le décours temporal lors du traitement de certains aspects du système sémantique est plus lent pour l’hémisphère droit que pour l’hémisphère gauche. L’objectif de cette thèse est d’examiner la façon dont les mots émotionnels sont traités par les hémisphères cérébraux chez des individus jeunes et âgés. À cet effet, la première étude a pour objectif d’évaluer l’hypothèse du décours temporel en examinant les patrons d’activations relatif au traitement de mots émotionnels par les hémisphères gauche et droit en utilisant un paradigme d’amorçage sémantique et une tâche d’évaluation. En accord avec l’hypothèse du décours temporel, les résultats obtenus pour les hommes montrent que l’amorçage débute plus tôt dans l’hémisphère gauche et plus tard dans l’hémisphère droit. Par contre, les résultats obtenus pour les femmes sont plutôt en accord avec l’hypothèse de valence, car les mots à valence positive sont principalement amorcés dans l’hémisphère gauche, alors que les mots à valence négative sont principalement amorcés dans l’hémisphère droit. Puisque les femmes sont considérées plus « émotives » que les hommes, les résultats ainsi obtenus peuvent être la conséquence des effets de la tâche, qui exige une décision explicite au sujet de la cible. La deuxième étude a pour objectif d’examiner la possibilité que la préservation avec l’âge de l’habileté à traiter des mots émotionnels s’exprime par un phénomène compensatoire d’activations bilatérales fréquemment observées chez des individus âgés et maintenant un haut niveau de performance, ce qui est également connu sous le terme de phénomène HAROLD (Hemispheric Asymmetry Reduction in OLDer adults). En comparant les patrons d’amorçages de mots émotionnels auprès de jeunes adultes et d’adultes âgés performants à des niveaux élevés sur le plan comportemental, les résultats révèlent que l’amorçage se manifeste unilatéralement chez les jeunes participants et bilatéralement chez les participants âgés. Par ailleurs, l’amorçage se produit chez les participants âgés avec un léger délai, ce qui peut résulter d’une augmentation des seuils sensoriels chez les participants âgés, qui nécessiteraient alors davantage de temps pour encoder les stimuli et entamer l’activation à travers le réseau sémantique. Ainsi, la performance équivalente au niveau de la précision retrouvée chez les deux groupes de participants et l’amorçage bilatéral observé chez les participants âgés sont en accord avec l’hypothèse de compensation du phénomène HAROLD.
Resumo:
Le réalisme des objets en infographie exige de simuler adéquatement leur apparence sous divers éclairages et à différentes échelles. Une solution communément adoptée par les chercheurs consiste à mesurer avec l’aide d’appareils calibrés la réflectance d’un échantillon de surface réelle, pour ensuite l’encoder sous forme d’un modèle de réflectance (BRDF) ou d’une texture de réflectances (BTF). Malgré des avancées importantes, les données ainsi mises à la portée des artistes restent encore très peu utilisées. Cette réticence pourrait s’expliquer par deux raisons principales : (1) la quantité et la qualité de mesures disponibles et (2) la taille des données. Ce travail propose de s’attaquer à ces deux problèmes sous l’angle de la simulation. Nous conjecturons que le niveau de réalisme du rendu en infographie produit déjà des résultats satisfaisants avec les techniques actuelles. Ainsi, nous proposons de précalculer et encoder dans une BTF augmentée les effets d’éclairage sur une géométrie, qui sera par la suite appliquée sur les surfaces. Ce précalcul de rendu et textures étant déjà bien adopté par les artistes, il pourra mieux s’insérer dans leurs réalisations. Pour nous assurer que ce modèle répond aussi aux exigences des représentations multi-échelles, nous proposons aussi une adaptation des BTFs à un encodage de type MIP map.
Resumo:
Cette thèse contribue a la recherche vers l'intelligence artificielle en utilisant des méthodes connexionnistes. Les réseaux de neurones récurrents sont un ensemble de modèles séquentiels de plus en plus populaires capable en principe d'apprendre des algorithmes arbitraires. Ces modèles effectuent un apprentissage en profondeur, un type d'apprentissage machine. Sa généralité et son succès empirique en font un sujet intéressant pour la recherche et un outil prometteur pour la création de l'intelligence artificielle plus générale. Le premier chapitre de cette thèse donne un bref aperçu des sujets de fonds: l'intelligence artificielle, l'apprentissage machine, l'apprentissage en profondeur et les réseaux de neurones récurrents. Les trois chapitres suivants couvrent ces sujets de manière de plus en plus spécifiques. Enfin, nous présentons quelques contributions apportées aux réseaux de neurones récurrents. Le chapitre \ref{arxiv1} présente nos travaux de régularisation des réseaux de neurones récurrents. La régularisation vise à améliorer la capacité de généralisation du modèle, et joue un role clé dans la performance de plusieurs applications des réseaux de neurones récurrents, en particulier en reconnaissance vocale. Notre approche donne l'état de l'art sur TIMIT, un benchmark standard pour cette tâche. Le chapitre \ref{cpgp} présente une seconde ligne de travail, toujours en cours, qui explore une nouvelle architecture pour les réseaux de neurones récurrents. Les réseaux de neurones récurrents maintiennent un état caché qui représente leurs observations antérieures. L'idée de ce travail est de coder certaines dynamiques abstraites dans l'état caché, donnant au réseau une manière naturelle d'encoder des tendances cohérentes de l'état de son environnement. Notre travail est fondé sur un modèle existant; nous décrivons ce travail et nos contributions avec notamment une expérience préliminaire.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.