2 resultados para Basic Training

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le sujet de ce mémoire émane d’une volonté d’intégrer la recherche à ma réalité organisationnelle, celle des Forces canadiennes (FC). De cette aspiration est née l’idée d’étudier comment se dévoilent la face et la figuration lors de l’instruction de base. Partant d’une approche interactionniste, l’attention a été portée sur la face et la figuration d’un stagiaire au cours de trois interactions avec ses supérieurs. C’est plus précisément, la filature et l’analyse de conversation qui ont été mobilisées pour examiner cette problématique. La pertinence de la démarche est qu'elle met de l'avant une perspective de recherche peu présente dans la littérature, mais surtout, qu’elle s’insère dans un contexte organisationnel méconnu. L'entreprise vise d’une part, à nourrir la théorie en raffinant des concepts existants : la face et la figuration. D’autre part, elle cherche à éclairer la pratique en mettant en évidence des actes communicationnels difficilement observables dans le cadre habituel des activités militaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.