1 resultado para bayesian networks

em Université Laval Mémoires et thèses électroniques


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Lâun des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui nâexistent pas réellement dans les données, tandis quâune trop faible complexité mène au sous-apprentissage, câest-à-dire que lâexpressivité du modèle est insuffisante pour capturer lâensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par lâintroduction dâune ou plusieurs variables cachées dont le rôle est dâexpliquer le processus génératif des données. Il existe diverses approches permettant dâidentifier le nombre approprié de variables cachées dâun modèle. Cette thèse sâintéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de lâapprentissage automatique est assez récente. Leur principal attrait vient du fait quâelles offrent des modèles hautement flexibles et dont la complexité sâajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes dâapprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement dâalgorithmes dâinférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte dâapprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant lâapprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme dâinférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que lâapproche proposée surpasse en performance et en flexibilité les approches classiques dâapprentissage. Dans un deuxième temps, nous proposons lâextended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur lâespace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet dâidentifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme dâinférence Monte Carlo par chaîne de Markov est utilisé pour lâévaluation sur des problèmes dâidentification de structures et dâestimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que lâextended cascading Indian buffet process servant à lâapprentissage de graphes et dâordres. Lâavantage du nouveau modèle est quâil admet les connections entres les variables observables et quâil prend en compte lâordre des variables. Nous présentons un algorithme dâinférence Monte Carlo par chaîne de Markov avec saut réversible permettant lâapprentissage conjoint de graphes et dâordres. Lâévaluation est faite sur des problèmes dâestimations de densité et de test dâindépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant dâapprendre des réseaux Bayésiens disposant dâune structure complètement arbitraire.