339 resultados para Le Ludique dans le travail
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Présente depuis le temps des Romains, et bien au-delà des simples «articles de Paris», la contrefaçon s’est introduite dans tous les domaines de fabrication. L’objectif de cette recherche est de déterminer quelles peuvent être les raisons et les motivations qui poussent un groupe d’immigrants à se spécialiser dans la vente de contrefaçon d’objet de luxe. Pour y répondre, nous proposons de suivre deux hypothèses. D'une part, le contexte politicoéconomique international est constitué de telle sorte qu'il favorise un groupe restreint de pays et limite en contrepartie les débouchés à bon nombre de pays en développement. Les pays développés modulent, ou font pression sur les organisations internationales à leur image afin d'en tirer davantage de bénéfices, et souvent au détriment des pays en développement. Et d'autre part, à l'intérieur de ces populations en mouvement, certains individus font le choix (inévitable ou stratégique) de se cantonner dans un commerce de la rue, parfois illégal, comme c'est le cas de la vente d'objet de luxe contrefait. D’un autre côté, l’adhésion d’un individu à un commerce illégal ne peut lui être totalement imposée par des forces extérieures. Ainsi, il est démontré dans ce travail, que la vente de contrefaçon répond aux particularités et aux exigences de certains individus: statut d’immigrants illégaux, peu ou pas d’expérience de travail compatible avec le pays d’accueil, travail sans contraintes d’horaire, travail à l’extérieur et, surtout, favorisant la vie sociale.
Resumo:
Au cours des dernières années, la génétique a subi une progression phénoménale suite au développement de nouvelles technologies de séquençage. En effet, le séquençage de l’exome entier chez des familles a permis l’identification de nouveaux gènes impliqués pour plusieurs maladies. La neurologie a d’ailleurs bénéficié de ces avancées et plusieurs gènes ont été mis en évidence comme causatifs pour différents désordres neurologiques. Dans ce travail il sera question de deux désordres du mouvement pour lequel nous avons utilisés des technologies de séquençage traditionnelles, en l’occurrence le séquençage par Sanger, ainsi que de nouvelles technologies pour le séquençage de l’exome entier afin d’identifier de nouveaux gènes causatifs. Le premier désordre du mouvement qui sera décrit est l’ataxie, où ne seront abordées que les ataxies de cause génétiques, à transmission récessive. Le premier chapitre relatera les nouvelles mutations qui ont été trouvées chez des canadiens-français souffrant de l’ataxie de Beauce. Il sera aussi question de nouvelles mutations retrouvées dans deux autres populations, confirmant l’implication du gène SYNE1 dans les cas d’ataxie cérébelleuse à travers le monde. Le second chapitre fera la démonstration qu’il est souhaitable d’utiliser le séquençage de l’exome entier dans le but de poser un diagnostic clinique. En effet, il a été possible de trouver la cause génétique d’une famille comportant deux membres atteints d’atrophie congénitale du cervelet, où le symptôme prédominant est l’ataxie. Le séquençage de l’exome a permis la mise en évidence de mutations dans le gène PMM2, déjà connues pour cause le syndrome des glycoprotéines déficientes en hydrates de carbone. Dans un second temps, il sera question d’un autre désordre du mouvement la paraplégie spastique familiale (PSF). Le chapitre 3 relatera les mutations trouvées dans le gène CYP7B1 dans notre cohorte de patients PSF.
Resumo:
Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.
Resumo:
L’historien n’écrit pas de nulle part. Ancré dans son présent et participant à la société, il en épouse – ou critique – les projets, les utopies et les grands récits. Nous proposons dans ce travail d’approfondir cet ancrage à travers une histoire croisée et comparée des expériences du temps de deux historiens français (Michel de Certeau, François Furet) et d’un historien-sociologue québécois (Fernand Dumont). Notre objectif est double : il s’agit d’établir, dans un premier temps, les correspondances entre leurs expériences lors de deux tournants, celui des années 1960 et celui des années 1970. Tout en prenant en compte les contextes des auteurs à l’étude, nous élargirons l’échelle d’analyse afin de cerner la contemporanéité d’expériences du temps qui ne se réduisent pas aux seuls cadres nationaux. Nous pourrons ainsi établir les coordonnées des régimes d’historicité à chaque tournant en contribuant à préciser les différentes combinaisons des modes futuristes et présentistes en jeu. Dans un deuxième temps, nous explorerons les liens entre historiographie et régime d’historicité afin de mettre en évidence les jonctions entre les considérations épistémologiques et l’horizon d’attente des historiens à l’étude. En abordant plus spécifiquement la question du rôle de l’historien dans sa société, nous jaugeons les transformations parallèles de son expérience du temps et de ses pratiques historiographiques. Le passage de l’expérience d’une Histoire en marche au tournant de 1960 à celle d’une histoire bloquée au tournant de 1970 affecte considérablement la place et le statut de l’historien. D’éminent passeur du temps à l’écoute du sens du progrès, l’historien voit son statut contesté et marginalisé, ce qui ne veut pas dire que son rôle est moins important. Qu’il débusque des alternatives passées ou court-circuite des téléologies, il est chargé de maintenir coûte que coûte ouverts les horizons du temps. Nous verrons spécifiquement le sens que prenait cette tâche à un moment où la possibilité d’une « société nouvelle », après Mai 68, pointait à l’horizon des contemporains.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Nous proposons dans cette thèse un système permettant de déterminer, à partir des données envoyées sur les microblogs, les évènements qui stimulent l’intérêt des utilisateurs durant une période donnée et les dates saillantes de chaque évènement. Étant donné son taux d’utilisation élevé et l’accessibilité de ses données, nous avons utilisé la plateforme Twitter comme source de nos données. Nous traitons dans ce travail les tweets portant sur la Tunisie dont la plupart sont écrits par des tunisiens. La première tâche de notre système consistait à extraire automatiquement les tweets d’une façon continue durant 67 jours (de 8 février au 15 avril 2012). Nous avons supposé qu’un évènement est représenté par plusieurs termes dont la fréquence augmente brusquement à un ou plusieurs moments durant la période analysée. Le manque des ressources nécessaires pour déterminer les termes (notamment les hashtags) portant sur un même sujet, nous a obligé à proposer des méthodes permettant de regrouper les termes similaires. Pour ce faire, nous avons eu recours à des méthodes phonétiques que nous avons adaptées au mode d’écriture utilisée par les tunisiens, ainsi que des méthodes statistiques. Pour déterminer la validité de nos méthodes, nous avons demandé à des experts, des locuteurs natifs du dialecte tunisien, d’évaluer les résultats retournés par nos méthodes. Ces groupes ont été utilisés pour déterminer le sujet de chaque tweet et/ou étendre les tweets par de nouveaux termes. Enfin, pour sélectionner l'ensemble des évènements (EV), nous nous sommes basés sur trois critères : fréquence, variation et TF-IDF. Les résultats que nous avons obtenus ont montré la robustesse de notre système.
Resumo:
Avec la participation de 38 Montréalais d'origine congolaise, dont 21 femmes et 17 hommes
Resumo:
Ce travail de mémoire porte sur le processus d’insertion sociale et économique des personnes vivant des problèmes de santé mentale. Le travail est devenu un important véhicule d’intégration sociale. En effet, on prétend que la pratique d’un métier serait pour les personnes souffrant de problèmes de santé un outil de rétablissement et de mieux-être, car elle permet de réduire les symptômes et l’incidence des hospitalisations. Le travail permet, également, d’augmenter les interactions sociales et de contribuer activement à la société. Il existe, toutefois, d’autres véhicules d’intégration qui semblent, sous certains angles, apporter les mêmes avantages. Les activités bénévoles améliorent la qualité de vie, favorisent les interactions sociales et donnent, à l’individu, l’occasion de contribuer à sa communauté. Par ailleurs, le retrait social peut être un moyen de s’éloigner des pressions sociales et de s’accorder une pause bénéfique. On soutient que les personnes ayant un problème de santé mentale qui ont une lecture positive de leur situation de marginalité tendent à être moins hospitalisées. S’appuyant sur une démarche qualitative, ce travail de recherche a tenté de cerner les perspectives, les questionnements et les perceptions des personnes ayant un trouble mental à l’égard d’un processus d’intégration socioprofessionnelle, de participation sociale et de retrait social. Des entrevues semi-dirigées ont été menées auprès de onze personnes, et grâce à ces entretiens, un portrait au regard de leurs parcours social et professionnel a pu être brossé. Les entretiens ont permis d’explorer l’impact des problèmes de santé mentale sur leur réalité et sur leur identité, leurs représentations du marché de l’emploi et les motifs qui justifient le choix de s’engager ou de renoncer à un processus d’intégration socioprofessionnelle. Les résultats de cette recherche ont permis d'identifier cinq facteurs qui peuvent influencer la décision des personnes qui sont le rapport à l'environnement social, l'identité, le rapport aux institutions de l'État, les discours de légitimation et les perspectives d'avenir. Les résultats démontrent que l'on ne peut isoler les notions de vulnérabilité, d'autonomie, de bien-être ou de stabilité dans une phase spécifique. La vulnérabilité, l'autonomie, le bien-être et la stabilité sont des états que l’on peut vivre en situation de retrait social, de participation sociale et d’intégration socioprofessionnelle. Selon les circonstances et l’état émotif, ils peuvent être des modes adaptés ou inadaptés.
Resumo:
Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.
Resumo:
Cet ouvrage présente une étude portant sur le polymère P3EHT (poly(3-(20-ethyl)hexyl-thiophene)). Parmi les nombreuses caractéristiques de la dynamique des polarons pouvant être étudiées, seules celles liées aux changement de morphologie le seront dans ce travail. De plus, la vérification du modèle HJ permet d’expliquer la photophysique des polymères conjugués, grâce à l’étude des spectres de photoluminescence. L’étude de la dynamique des polarons à travers l’absorption photo-induite en fonction de la fréquence a permis de trouver les durées de vie pour un même échantillon avec des morphologies différentes. Les résultats ont démontré que la morphologie est non seulement fondamentale pour l’étude des polarons, mais consiste aussi en une caractéristique essentielle pour comprendre le nouveau modèle HJ.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Cette thèse pose la question du positionnement identitaire difficile qui marque la trajectoire littéraire de l’écrivaine belge Suzanne Lilar (1901-1992). Le tiraillement vécu par l’écrivaine entre sa vocation artistique et la nécessité de préserver une image de soi conforme aux normes du milieu social dans lequel elle s’inscrit se reflète dans les scénographies construites par ses œuvres littéraires, mais également dans son discours réflexif et paratextuel ainsi que dans la manière dont son œuvre est accueilli par la presse de l’époque. Le premier volet de cette analyse s’attache à circonscrire la position occupée par Suzanne Lilar sur la scène littéraire belge, dont la proximité avec le centre parisien a toujours entretenu la menace de l’assimilation, et sur la scène de l’écriture féminine. Le deuxième volet de cette thèse porte sur l’analyse des scénographies construites par les textes de fiction et les textes à tendance autobiographique de Suzanne Lilar. Les doubles scénographies que donnent à lire ces œuvres montrent que la démarche esthétique de Suzanne Lilar, sous-tendue par le besoin de légitimation de son entreprise, est basée principalement sur la multiplication des perspectives et des moyens d’expression. Le dédoublement de la scène énonciative des récits, la mise en abyme de la figure auctoriale ainsi que le travail d’autoréécriture témoignent de la nécessité de se positionner dans le champ littéraire, mais également de la méfiance de l’écrivaine envers l’écriture littéraire. Le troisième volet de cette recherche analyse l’éthos et la posture que Lilar construit à l’aide du discours réflexif et paratextuel par lequel elle assoit sa légitimité sur la scène littéraire et sociale. Enfin, la dernière partie de cette thèse capte les échos de l’œuvre de Lilar dans la presse de son temps. L’image de l’auteure construite par les médias permet de placer Lilar au sein de l’institution et du champ littéraire, mais également au sein du groupe social dans lequel elle s’inscrit. L’accueil réservé à l’écrivaine par la presse de son époque semble suivre les fluctuations de la posture construite par l’écrivaine elle-même. Cela confirme l’hypothèse selon laquelle Lilar est une auteure qui a éprouvé de la difficulté à assumer pleinement son rôle. Le positionnement en porte-à-faux – dont témoigne la figure du trompe-l’œil qui définit sa poétique – semble avoir représenté, pour Lilar, la seule manière d’assumer l’incontournable paratopie créatrice.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.