370 resultados para Réseaux quantiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la chronologie culturelle des Amérindiens du Nord-Est américain. Il vise à documenter un des épisodes culturels de la préhistoire de l’Estrie, soit le Sylvicole moyen ancien, compris entre l’an 400 avant notre ère et 500 de notre ère. De la poterie typique de cette période a été récoltée sur le site Vieux-Pont (BiEx-1) à Lennoxville par des archéologues amateurs et professionnels depuis sa découverte. L’analyse des tessons de poterie réalisée dans ce projet a surtout révélé une forte homogénéité de l’effet basculant, une technique d’application décorative, sur la paroi interne et la panse des vases. Elle a aussi permis de proposer une occupation récente au Sylvicole moyen ancien, entre les ans 1 et 500-600 de notre ère. L’analyse comparative suggère la participation des groupes de Vieux-Pont aux mêmes réseaux d’interactions et d’échanges que ceux des régions de Montréal, de Québec, du Haut-Richelieu et de la Nouvelle-Angleterre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 29 février 1704, une force de 250 alliés franco-amérindiens attaque le petit village frontalier de Deerfield au Massachusetts et enlève 112 habitants. De ce nombre, 89 parviennent vivants en Nouvelle-France. À la fin de la guerre de Succession d’Espagne, 25 d’entre eux finissent par s’installer parmi les Français ou les Amérindiens. Pendant longtemps, ils auront le statut de captifs, d’Anglais ou simplement, d’étrangers. Ce travail vise à reconstituer le parcours de vie et d’intégration des anciens captifs de Deerfield dans la colonie française. Nous identifierons pour commencer les participants de l’attaque de Deerfield. Passant ensuite aux captifs, nous étudierons le processus d’intégration à la colonie et d’assimilation par la religion. Nous aborderons les modalités de l’adoption des captifs par les Français et les Amérindiens. Nous verrons quelle a été l’influence du mariage quant à l’insertion des captifs dans les réseaux sociaux. Finalement, nous analyserons le statut socioprofessionnel et la reproduction sociale de la descendance immédiate de certains de ces captifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La voix humaine constitue la partie dominante de notre environnement auditif. Non seulement les humains utilisent-ils la voix pour la parole, mais ils sont tout aussi habiles pour en extraire une multitude d’informations pertinentes sur le locuteur. Cette expertise universelle pour la voix humaine se reflète dans la présence d’aires préférentielles à celle-ci le long des sillons temporaux supérieurs. À ce jour, peu de données nous informent sur la nature et le développement de cette réponse sélective à la voix. Dans le domaine visuel, une vaste littérature aborde une problématique semblable en ce qui a trait à la perception des visages. L’étude d’experts visuels a permis de dégager les processus et régions impliqués dans leur expertise et a démontré une forte ressemblance avec ceux utilisés pour les visages. Dans le domaine auditif, très peu d’études se sont penchées sur la comparaison entre l’expertise pour la voix et d’autres catégories auditives, alors que ces comparaisons pourraient contribuer à une meilleure compréhension de la perception vocale et auditive. La présente thèse a pour dessein de préciser la spécificité des processus et régions impliqués dans le traitement de la voix. Pour ce faire, le recrutement de différents types d’experts ainsi que l’utilisation de différentes méthodes expérimentales ont été préconisés. La première étude a évalué l’influence d’une expertise musicale sur le traitement de la voix humaine, à l’aide de tâches comportementales de discrimination de voix et d’instruments de musique. Les résultats ont démontré que les musiciens amateurs étaient meilleurs que les non-musiciens pour discriminer des timbres d’instruments de musique mais aussi les voix humaines, suggérant une généralisation des apprentissages perceptifs causés par la pratique musicale. La seconde étude avait pour but de comparer les potentiels évoqués auditifs liés aux chants d’oiseaux entre des ornithologues amateurs et des participants novices. L’observation d’une distribution topographique différente chez les ornithologues à la présentation des trois catégories sonores (voix, chants d’oiseaux, sons de l’environnement) a rendu les résultats difficiles à interpréter. Dans la troisième étude, il était question de préciser le rôle des aires temporales de la voix dans le traitement de catégories d’expertise chez deux groupes d’experts auditifs, soit des ornithologues amateurs et des luthiers. Les données comportementales ont démontré une interaction entre les deux groupes d’experts et leur catégorie d’expertise respective pour des tâches de discrimination et de mémorisation. Les résultats obtenus en imagerie par résonance magnétique fonctionnelle ont démontré une interaction du même type dans le sillon temporal supérieur gauche et le gyrus cingulaire postérieur gauche. Ainsi, les aires de la voix sont impliquées dans le traitement de stimuli d’expertise dans deux groupes d’experts auditifs différents. Ce résultat suggère que la sélectivité à la voix humaine, telle que retrouvée dans les sillons temporaux supérieurs, pourrait être expliquée par une exposition prolongée à ces stimuli. Les données présentées démontrent plusieurs similitudes comportementales et anatomo-fonctionnelles entre le traitement de la voix et d’autres catégories d’expertise. Ces aspects communs sont explicables par une organisation à la fois fonctionnelle et économique du cerveau. Par conséquent, le traitement de la voix et d’autres catégories sonores se baserait sur les mêmes réseaux neuronaux, sauf en cas de traitement plus poussé. Cette interprétation s’avère particulièrement importante pour proposer une approche intégrative quant à la spécificité du traitement de la voix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’aube du IXe siècle, les Carolingiens prétendent imposer à l’Occident l’unité dans la foi et le culte. Cet idéal domine les pensées des empereurs qui se conçoivent comme protecteurs, législateurs et juges, mais aussi vicaires du Christ et recteurs de l’Église. De telles ambitions stimulent l’élaboration d’un gouvernement original. Comme les conquêtes avaient composé une vaste mosaïque de populations, de cultures et d’intérêts, la concorde posait un grand défi. Pour y répondre, Charlemagne et Louis le Pieux ont fait des communications leur premier outil politique. Leur inventivité et leur efficience furent appréciables, mais elles n’ont pas suffi à leur gagner toutes les adhésions : la discorde s’est installée là où l’empereur ne parvenait pas à maintenir une relation forte avec les élites régionales. Les distances et les modalités des communications déterminaient la nature de leurs échanges, donc leurs limites et, de ce fait, le destin de l’Empire carolingien. L’enquête aborde un vaste éventail documentaire : actes, capitulaires, correspondances, monnaies... Elle s’intéresse particulièrement aux relations du pouvoir impérial avec les élites du sud-ouest de l’empire. Ses résultats dépendent d’un étayage complexe : dispositifs de représentation du pouvoir, conséquences politico-sociales des distances et des vitesses de déplacement, anthropologie de la rencontre et des relations à distance, étude des réseaux. Au-delà des considérations propres à l’histoire des VIIIe-IXe siècles, elle démontre l’intérêt d’aborder les réalités politiques prémodernes du point de vue des défis que présentent les distances géographiques, les rencontres et les communications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous proposons de nouveaux résultats de systèmes superintégrables séparables en coordonnées polaires. Dans un premier temps, nous présentons une classification complète de tous les systèmes superintégrables séparables en coordonnées polaires qui admettent une intégrale du mouvement d'ordre trois. Des potentiels s'exprimant en terme de la sixième transcendante de Painlevé et de la fonction elliptique de Weierstrass sont présentés. Ensuite, nous introduisons une famille infinie de systèmes classiques et quantiques intégrables et exactement résolubles en coordonnées polaires. Cette famille s'exprime en terme d'un paramètre k. Le spectre d'énergie et les fonctions d'onde des systèmes quantiques sont présentés. Une conjecture postulant la superintégrabilité de ces systèmes est formulée et est vérifiée pour k=1,2,3,4. L'ordre des intégrales du mouvement proposées est 2k où k ∈ ℕ. La structure algébrique de la famille de systèmes quantiques est formulée en terme d'une algèbre cachée où le nombre de générateurs dépend du paramètre k. Une généralisation quasi-exactement résoluble et intégrable de la famille de potentiels est proposée. Finalement, les trajectoires classiques de la famille de systèmes sont calculées pour tous les cas rationnels k ∈ ℚ. Celles-ci s'expriment en terme des polynômes de Chebyshev. Les courbes associées aux trajectoires sont présentées pour les premiers cas k=1, 2, 3, 4, 1/2, 1/3 et 3/2 et les trajectoires bornées sont fermées et périodiques dans l'espace des phases. Ainsi, les résultats obtenus viennent renforcer la possible véracité de la conjecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’ère de la mondialisation institutionnelle des sociétés modernes, alors que la confluence d’une myriade d’influences à la fois micro et macro-contextuelles complexifient le panorama sociopolitique international, l’intégration de l’idéal participatif par les processus de démocratisation de la santé publique acquiert l’apparence d’une stratégie organisationnelle promouvant la cohésion des multiples initiatives qui se tissent simultanément aux échelles locale et globale. L’actualisation constante des savoirs contemporains par les divers secteurs sociétaux ainsi que la perception sociale de différents risques conduisent à la prise de conscience des limites de la compétence technique des systèmes experts associés au domaine de la santé et des services sociaux. La santé publique, une des responsables légitimes de la gestion des risques modernes à l’échelle internationale, fait la promotion de la création d’espaces participatifs permettant l’interaction mutuelle d’acteurs intersectoriels et de savoirs multiples constamment modifiables. Il s’agit là d’une stratégie de relocalisation institutionnelle de l’action collective afin de rétablir la confiance envers la fiabilité des représentants de la santé publique internationale, qui ne répondent que partiellement aux besoins actuels de la sécurité populationnelle. Dans ce contexte, les conseils locaux de santé (CLS), mis en place à l’échelle internationale dans le cadre des politiques régionales de décentralisation des soins de santé primaires (SSP), représentent ainsi des espaces participatifs intéressants qui renferment dans leur fonctionnement tout un univers de forces de tension paradoxales. Ils nous permettent d’examiner la relation de caractère réciproque existant entre, d’une part, une approche plus empirique par l’analyse en profondeur des pratiques participatives (PP) plus spécifiques et, d’autre part, une compréhension conceptuelle de la mondialisation institutionnelle qui définit les tendances expansionnistes très générales des sociétés contemporaines. À l’aide du modèle de la transition organisationnelle (MTO), nous considérons que les PP intégrées à la gouverne des CLS sont potentiellement porteuses de changement organisationnel, dans le sens où elles sont la condition et la conséquence de nombreuses traductions stratégiques et systémiques essentiellement transformatrices. Or, pour qu’une telle transformation puisse s’accomplir, il est nécessaire de développer les compétences participatives pertinentes, ce qui confère au phénomène participatif la connotation d’apprentissage organisationnel de nouvelles formes d’action et d’intervention collectives. Notre modèle conceptuel semble fournir un ensemble de considérations épistémosociales fort intéressantes et très prometteuses permettant d’examiner en profondeur les dimensions nécessaires d’un renouvellement organisationnel de la participation dans le champ complexe de la santé publique internationale. Il permet de concevoir les interventions complexes comme des réseaux épistémiques de pratiques participatives (RÉPP) rassemblant des acteurs très diversifiés qui s’organisent autour d’un processus de conceptualisation transculturelle de connaissances ainsi que d’opérationnalisation intersectorielle des actions, et ce, par un ensemble de mécanismes d’instrumentalisation organisationnelle de l’apprentissage. De cette façon, le MTO ainsi que la notion de RÉPP permettent de mieux comprendre la création de passages incessants entre l’intégration locale des PP dans la gouverne des interventions complexes de la santé et des services sociaux – tels que les CLS –, et les processus plus larges de réorganisation démocratique de la santé publique dans le contexte global de la mondialisation institutionnelle. Cela pourrait certainement nous aider à construire collectivement l’expression réflexive et manifeste des valeurs démocratiques proposées dans la Déclaration d’Alma-Ata, publiée en 1978, lors de la première Conférence internationale sur les SSP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur les différentes formalisations du sens linguistique dans le cadre de la théorie Sens-Texte (TST) ; elle s’intéresse notamment à la représentation sémantique, la représentation la plus importante dans la modélisation du sens d’énoncés et d’unités lexicales de la langue. Cette étude a trois objectifs : premièrement, décrire trois formalisations de la représentation sémantique existant dans la TST – les réseaux sémantiques, les définitions lexicographiques et les définitions de la BDéf (des définitions très formalisées) ; deuxièmement, identifier les disparités et les décalages entre les formalisations choisies ; troisièmement, proposer des modifications aux formalisations existantes pour réduire au maximum ces disparités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’appropriation d’Internet par les visiteurs des centres d’accès public à cette technologie installés par le gouvernement et les ONG au Chili au début des années 2000. L’implantation de ces centres s’insère dans une politique officielle d’accès à une technologie qui est considérée comme un outil de développement. Les autorités s’appuient sur un discours plus large qui fait référence à la Société de l’information et au besoin de la population de participer adéquatement à celle-ci; l’accès et la maîtrise des technologies de l’information et communication, et en particulier l’Internet, permettrait aux personnes de bénéficier des avantages de cette nouvelle société. Conscients que ce n’est pas toute la population qui peut s’abonner à un service d’Internet à domicile, les télécentres aideraient les personnes à faible revenu à le faire. Au niveau théorique, nous avons mobilisé certaines notions liées aux études sur les usages des technologies. Plus spécifiquement, nous nous sommes servis du modèle de l’appropriation qui se penche sur la construction des significations que font les personnes de l’usage d’une technologie. Ce modèle montre la complexité du processus et les facteurs d’ordre personnel et social qui entrent en jeu. Selon ce modèle, le contexte social est clé pour comprendre la construction de la signification sur l’usage. Nous faisons aussi référence à d’autres études qui se penchent sur les différents moments de l’appropriation : la domestication, les propos de Michel de Certeau et la sociopolitique des usages. Finalement, nous proposons de considérer certains facteurs qui peuvent avoir une influence dans le processus d’appropriation, tels que les représentations des usagers, le contexte socio-économique, le réseau d’appui et le genre. D’un point de vue méthodologique, étant donné que nous voulions explorer un phénomène sans pour autant faire de généralisations, nous avons utilisé une démarche qualitative et comme stratégie de recherche, l’ethnographie. Nous avons visité 5 télécentres dans 4 villes ou villages de différentes régions du Chili. Nous avons fait des observations et des entrevues semi-ouvertes avec des usagers, des responsables des télécentres et les responsables des réseaux de télécentres. La thèse montre la complexité du processus d’appropriation et la spécificité de l’appropriation d’Internet dans les centres d’accès public. Nous avons constaté comment les relations interpersonnelles – le réseau d’appui- jouent un des rôles les plus importants dans le processus de rapprochement au centre et à la technologie, ainsi que dans le processus d’apprentissage et d’usage même. Nous avons constaté également que la construction de la signification de l’usage est étroitement liée au contexte et aux expériences de vie des personnes. Un même usage n’a pas la même signification pour tous nos interviewés : pour certains, le clavardage peut être seulement une activité de loisir et pour quelqu’un d’autre, un outil de développement personnel et émotionnel. Les projections sur les usages futurs ne sont pas les mêmes non plus chez les adultes et chez les plus jeunes, ces derniers étant davantage conscients de l’Internet comme un outil de travail. L’interprétation de l’usage diffère aussi entre les hommes et les femmes (plus que les usages mêmes): certaines femmes voient dans l’usage d’Internet et dans la participation au télécentre une activité qui les fait sortir de leur rôle typique de femme au foyer. Finalement, nous avons observé que la signification de l’usage n’est pas seulement construite à partir de l’expérience personnelle immédiate; les usages des autres sont toujours évalués par les visiteurs des télécentres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.