55 resultados para Natural language techniques, Semantic spaces, Random projection, Documents
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.
Resumo:
"Les prestataires techniques fournissant des services sur Internet (« FSI ») incluant le simple transporteur de documents technologiques, le prestataire offrant des services d’antémémorisation (ou services de caching) ou l’hébergeur peuvent être responsables face aux tiers ou face à leurs clients, et ce, à plusieurs niveaux. Les FSI peuvent dans certains cas être tenus responsables face aux tiers pour le caractère illicite de l’information qu’ils diffusent. Certaines informations circulant sur Internet peuvent affecter les droits d’auteur de tiers ou être diffamatoires envers certains individus et les FSI peuvent jouer un rôle dans la transmission de ces informations sur Internet. Face à leurs clients, les FSI qui ont accès à leurs renseignements personnels afin entre autres d’être en mesure d’offrir les services demandés peuvent dans certains cas être tenus responsables pour avoir fait une collecte, une utilisation ou une divulgation non autorisée de ces renseignements. Ils peuvent également être tenus responsables d’avoir fait parvenir des courriels publicitaires non sollicités à leurs clients ou pour avoir suspendu le compte d’un client qui envoie du spam dans certaines circonstances. Le présent article traite des questions de responsabilité des prestataires techniques Internet au Québec : envers les tiers en ce qui a trait au caractère illicite des documents transmis ou hébergés; et envers leurs clients relativement à leurs obligations de respect des renseignements personnels de ces clients et à leur responsabilité pour les questions relatives au spam."
Resumo:
Dans les discussions sur les biotechnologies, l’argument de la dignité humaine conduit souvent à l’impasse. Le philosophe et sociologue allemand, Jürgen Habermas, craint que le débat, qui s’est ouvert récemment autour de la recherche sur les embryons, les diagnostics prénatal et préimplantatoire, et le clonage, se polarise, de nouveau comme c’était déjà le cas, en Allemand et dans les autres pays occidentaux, au sujet de l’avortement. La seule façon de sortir de cette polarisation – et c’est là un des apports importants de Habermas – est de distinguer nettement la dignité humaine, d’une part et d’autre part, la dignité de la vie humaine. D’un point de vue éthique et juridique, l’argument de la dignité humaine ne saurait nécessairement s’étendre au fœtus ou embryon. Car, la dignité humaine est liée à la symétrie qui détermine la relation liant les membres d’une communauté morale. Elle n’est pas un fait naturel, une propriété qu’on a par nature comme l’intelligence ou le fait d’avoir les yeux bleus. Au contraire, la dignité humaine désigne cette «inviolabilité» qui ne peut avoir de sens que dans les relations interpersonnelles de reconnaissance mutuelle et dans un rapport d’égal à égal des personnes entre elles. Néanmoins, le fœtus ou l’embryon peut, d’une certaine manière, échapper à notre contrôle et disposition en référence à la dignité que nous devons à la vie de l’espèce humaine. De ce point de vue, nos conceptions modernes de la vie anté-personnelle et la façon dont nous voulons nous comporter par rapport à cette vie forment, pour ainsi dire, un environnement éthique stabilisant de l’espèce pour la morale rationnelle des sujets de droits moraux.
Resumo:
Les polymères sensibles à des stimuli ont été largement étudiés ces dernières années notamment en vue d’applications biomédicales. Ceux-ci ont la capacité de changer leurs propriétés de solubilité face à des variations de pH ou de température. Le but de cette thèse concerne la synthèse et l’étude de nouveaux diblocs composés de deux copolymères aléatoires. Les polymères ont été obtenus par polymérisation radicalaire contrôlée du type RAFT (reversible addition-fragmentation chain-transfer). Les polymères à bloc sont formés de monomères de méthacrylates et/ou d’acrylamides dont les polymères sont reconnus comme thermosensibles et sensible au pH. Premièrement, les copolymères à bloc aléatoires du type AnBm-b-ApBq ont été synthétisés à partir de N-n-propylacrylamide (nPA) et de N-ethylacrylamide (EA), respectivement A et B, par polymérisation RAFT. La cinétique de copolymérisation des poly(nPAx-co-EA1-x)-block-poly(nPAy-co-EA1-y) et leur composition ont été étudiées afin de caractériser et évaluer les propriétés physico-chimiques des copolymères à bloc aléatoires avec un faible indice de polydispersité . Leurs caractères thermosensibles ont été étudiés en solution aqueuse par spectroscopie UV-Vis, turbidimétrie et analyse de la diffusion dynamique de la lumière (DLS). Les points de trouble (CP) observés des blocs individuels et des copolymères formés démontrent des phases de transitions bien définies lors de la chauffe. Un grand nombre de macromolécules naturels démontrent des réponses aux stimuli externes tels que le pH et la température. Aussi, un troisième monomère, 2-diethylaminoethyl methacrylate (DEAEMA), a été ajouté à la synthèse pour former des copolymères à bloc , sous la forme AnBm-b-ApCq , et qui offre une double réponse (pH et température), modulable en solution. Ce type de polymère, aux multiples stimuli, de la forme poly(nPAx-co-DEAEMA1-x)-block-poly(nPAy-co-EA1-y), a lui aussi été synthétisé par polymérisation RAFT. Les résultats indiquent des copolymères à bloc aléatoires aux propriétés physico-chimiques différentes des premiers diblocs, notamment leur solubilité face aux variations de pH et de température. Enfin, le changement d’hydrophobie des copolymères a été étudié en faisant varier la longueur des séquences des blocs. Il est reconnu que la longueur relative des blocs affecte les mécanismes d’agrégation d’un copolymère amphiphile. Ainsi avec différents stimuli de pH et/ou de température, les expériences effectuées sur des copolymères à blocaléatoires de différentes longueurs montrent des comportements d’agrégation intéressants, évoluant sous différentes formes micellaires, d’agrégats et de vésicules.
Resumo:
Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Dans les dernières décennies, les changements morphologiques des maisons iraniennes, l’arrivage de l'éclairage artificiel et le manque de connaissance suffisante de la valeur de la lumière du jour pour le bien-être des occupants ont résulté une diminution de l'utilisation de la lumière du jour dans les habitations iraniennes contemporaines. En conséquence, le niveau du bien-être des occupants a décru ce qui peut être corrélée avec la diminution de l'utilisation de la lumière du jour. Considérant l'architecture traditionnelle iranienne et l'importance de la lumière du jour dans les habitations traditionnelles, cette recherche étudie l’utilisation de la lumière du jour dans les habitations traditionnelles et explore comment extrapoler ces techniques dans les maisons contemporaines pourrait augmenter l'utilisation de la lumière du jour et par conséquence améliorer le bien-être des occupants. Une revue de littérature, une enquête des experts iraniens et une étude de cas des maisons à cour traditionnelles à la ville de Kashan ont permis de recueillir les données nécessaires pour cette recherche. De par le contexte de recherche, la ville de Kashan a été choisie particulièrement grâce à sa texture historique intacte. L’analyse de la lumière du jour a été faite par un logiciel de simulation pour trois maisons à cour de la ville de Kashan ayant les mêmes caractéristiques de salon d’hiver. Cette étude se concentre sur l’analyse de la lumière du jour dans les salons d'hiver du fait de la priorité obtenue de l'enquête des experts et de la revue de littérature. Les résultats de cette recherche montrent que l’extrapolation des techniques traditionnelles de l'utilisation de lumière du jour dans les habitations modernes peut être considéré comme une option de conception alternative. Cette dernière peut optimiser l'utilisation de lumière du jour et par conséquence améliorer le bien-être des occupants. L'approche utilisée dans cette recherche a fourni une occasion d’étudier l'architecture du passé et d’évaluer plus précisément son importance. Cette recherche contribue ainsi à définir un modèle en tirant les leçons du passé pour résoudre les problèmes actuels.
Resumo:
La rétroaction corrective (RC) se définit comme étant un indice permettant à l’apprenant de savoir que son utilisation de la L2 est incorrecte (Lightbown et Spada, 2006). Les chercheurs reconnaissent de plus en plus l’importance de la RC à l’écrit (Ferris, 2010). La recherche sur la RC écrite s’est grandement concentrée sur l’évaluation des différentes techniques de RC sans pour autant commencer par comprendre comment les enseignants corrigent les textes écrits de leurs élèves et à quel point ces derniers sont en mesure d’utiliser cette RC pour réviser leurs productions écrites. Cette étude vise à décrire quelles techniques de RC sont utilisées par les enseignants de francisation ainsi que comment les étudiants incorporent cette RC dans leur révision. De plus, elle veut aussi vérifier si les pratiques des enseignants et des étudiants varient selon le type d’erreur corrigée (lexicale, syntaxique et morphologique), la technique utilisée (RC directe, indirecte, combinée) et la compétence des étudiants à l’écrit (faible ou fort). Trois classes de francisation ont participé à cette étude : 3 enseignants et 24 étudiants (12 jugés forts et 12 faibles). Les étudiants ont rédigé un texte qui a été corrigé par les enseignants selon leur méthode habituelle. Puis les étudiants ont réécrit leur texte en incorporant la RC de leur enseignant. Des entrevues ont aussi été réalisées auprès des 3 enseignants et des 24 étudiants. Les résultats indiquent l’efficacité générale de la RC à l’écrit en langue seconde. En outre, cette efficacité varie en fonction de la technique utilisée, des types d’erreurs ainsi que du niveau de l’apprenant. Cette étude démontre que ces trois variables ont un rôle à jouer et que les enseignants devraient varier leur RC lorsqu’ils corrigent.
Resumo:
Semantic memory recruits an extensive neural network including the left inferior prefrontal cortex (IPC) and the left temporoparietal region, which are involved in semantic control processes, as well as the anterior temporal lobe region (ATL) which is considered to be involved in processing semantic information at a central level. However, little is known about the underlying neuronal integrity of the semantic network in normal aging. Young and older healthy adults carried out a semantic judgment task while their cortical activity was recorded using magnetoencephalography (MEG). Despite equivalent behavioral performance, young adults activated the left IPC to a greater extent than older adults, while the latter group recruited the temporoparietal region bilaterally and the left ATL to a greater extent than younger adults. Results indicate that significant neuronal changes occur in normal aging, mainly in regions underlying semantic control processes, despite an apparent stability in performance at the behavioral level.