571 resultados para Réseaux optiques (Optoélectronique)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la chronologie culturelle des Amérindiens du Nord-Est américain. Il vise à documenter un des épisodes culturels de la préhistoire de l’Estrie, soit le Sylvicole moyen ancien, compris entre l’an 400 avant notre ère et 500 de notre ère. De la poterie typique de cette période a été récoltée sur le site Vieux-Pont (BiEx-1) à Lennoxville par des archéologues amateurs et professionnels depuis sa découverte. L’analyse des tessons de poterie réalisée dans ce projet a surtout révélé une forte homogénéité de l’effet basculant, une technique d’application décorative, sur la paroi interne et la panse des vases. Elle a aussi permis de proposer une occupation récente au Sylvicole moyen ancien, entre les ans 1 et 500-600 de notre ère. L’analyse comparative suggère la participation des groupes de Vieux-Pont aux mêmes réseaux d’interactions et d’échanges que ceux des régions de Montréal, de Québec, du Haut-Richelieu et de la Nouvelle-Angleterre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 29 février 1704, une force de 250 alliés franco-amérindiens attaque le petit village frontalier de Deerfield au Massachusetts et enlève 112 habitants. De ce nombre, 89 parviennent vivants en Nouvelle-France. À la fin de la guerre de Succession d’Espagne, 25 d’entre eux finissent par s’installer parmi les Français ou les Amérindiens. Pendant longtemps, ils auront le statut de captifs, d’Anglais ou simplement, d’étrangers. Ce travail vise à reconstituer le parcours de vie et d’intégration des anciens captifs de Deerfield dans la colonie française. Nous identifierons pour commencer les participants de l’attaque de Deerfield. Passant ensuite aux captifs, nous étudierons le processus d’intégration à la colonie et d’assimilation par la religion. Nous aborderons les modalités de l’adoption des captifs par les Français et les Amérindiens. Nous verrons quelle a été l’influence du mariage quant à l’insertion des captifs dans les réseaux sociaux. Finalement, nous analyserons le statut socioprofessionnel et la reproduction sociale de la descendance immédiate de certains de ces captifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La voix humaine constitue la partie dominante de notre environnement auditif. Non seulement les humains utilisent-ils la voix pour la parole, mais ils sont tout aussi habiles pour en extraire une multitude d’informations pertinentes sur le locuteur. Cette expertise universelle pour la voix humaine se reflète dans la présence d’aires préférentielles à celle-ci le long des sillons temporaux supérieurs. À ce jour, peu de données nous informent sur la nature et le développement de cette réponse sélective à la voix. Dans le domaine visuel, une vaste littérature aborde une problématique semblable en ce qui a trait à la perception des visages. L’étude d’experts visuels a permis de dégager les processus et régions impliqués dans leur expertise et a démontré une forte ressemblance avec ceux utilisés pour les visages. Dans le domaine auditif, très peu d’études se sont penchées sur la comparaison entre l’expertise pour la voix et d’autres catégories auditives, alors que ces comparaisons pourraient contribuer à une meilleure compréhension de la perception vocale et auditive. La présente thèse a pour dessein de préciser la spécificité des processus et régions impliqués dans le traitement de la voix. Pour ce faire, le recrutement de différents types d’experts ainsi que l’utilisation de différentes méthodes expérimentales ont été préconisés. La première étude a évalué l’influence d’une expertise musicale sur le traitement de la voix humaine, à l’aide de tâches comportementales de discrimination de voix et d’instruments de musique. Les résultats ont démontré que les musiciens amateurs étaient meilleurs que les non-musiciens pour discriminer des timbres d’instruments de musique mais aussi les voix humaines, suggérant une généralisation des apprentissages perceptifs causés par la pratique musicale. La seconde étude avait pour but de comparer les potentiels évoqués auditifs liés aux chants d’oiseaux entre des ornithologues amateurs et des participants novices. L’observation d’une distribution topographique différente chez les ornithologues à la présentation des trois catégories sonores (voix, chants d’oiseaux, sons de l’environnement) a rendu les résultats difficiles à interpréter. Dans la troisième étude, il était question de préciser le rôle des aires temporales de la voix dans le traitement de catégories d’expertise chez deux groupes d’experts auditifs, soit des ornithologues amateurs et des luthiers. Les données comportementales ont démontré une interaction entre les deux groupes d’experts et leur catégorie d’expertise respective pour des tâches de discrimination et de mémorisation. Les résultats obtenus en imagerie par résonance magnétique fonctionnelle ont démontré une interaction du même type dans le sillon temporal supérieur gauche et le gyrus cingulaire postérieur gauche. Ainsi, les aires de la voix sont impliquées dans le traitement de stimuli d’expertise dans deux groupes d’experts auditifs différents. Ce résultat suggère que la sélectivité à la voix humaine, telle que retrouvée dans les sillons temporaux supérieurs, pourrait être expliquée par une exposition prolongée à ces stimuli. Les données présentées démontrent plusieurs similitudes comportementales et anatomo-fonctionnelles entre le traitement de la voix et d’autres catégories d’expertise. Ces aspects communs sont explicables par une organisation à la fois fonctionnelle et économique du cerveau. Par conséquent, le traitement de la voix et d’autres catégories sonores se baserait sur les mêmes réseaux neuronaux, sauf en cas de traitement plus poussé. Cette interprétation s’avère particulièrement importante pour proposer une approche intégrative quant à la spécificité du traitement de la voix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’aube du IXe siècle, les Carolingiens prétendent imposer à l’Occident l’unité dans la foi et le culte. Cet idéal domine les pensées des empereurs qui se conçoivent comme protecteurs, législateurs et juges, mais aussi vicaires du Christ et recteurs de l’Église. De telles ambitions stimulent l’élaboration d’un gouvernement original. Comme les conquêtes avaient composé une vaste mosaïque de populations, de cultures et d’intérêts, la concorde posait un grand défi. Pour y répondre, Charlemagne et Louis le Pieux ont fait des communications leur premier outil politique. Leur inventivité et leur efficience furent appréciables, mais elles n’ont pas suffi à leur gagner toutes les adhésions : la discorde s’est installée là où l’empereur ne parvenait pas à maintenir une relation forte avec les élites régionales. Les distances et les modalités des communications déterminaient la nature de leurs échanges, donc leurs limites et, de ce fait, le destin de l’Empire carolingien. L’enquête aborde un vaste éventail documentaire : actes, capitulaires, correspondances, monnaies... Elle s’intéresse particulièrement aux relations du pouvoir impérial avec les élites du sud-ouest de l’empire. Ses résultats dépendent d’un étayage complexe : dispositifs de représentation du pouvoir, conséquences politico-sociales des distances et des vitesses de déplacement, anthropologie de la rencontre et des relations à distance, étude des réseaux. Au-delà des considérations propres à l’histoire des VIIIe-IXe siècles, elle démontre l’intérêt d’aborder les réalités politiques prémodernes du point de vue des défis que présentent les distances géographiques, les rencontres et les communications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’ère de la mondialisation institutionnelle des sociétés modernes, alors que la confluence d’une myriade d’influences à la fois micro et macro-contextuelles complexifient le panorama sociopolitique international, l’intégration de l’idéal participatif par les processus de démocratisation de la santé publique acquiert l’apparence d’une stratégie organisationnelle promouvant la cohésion des multiples initiatives qui se tissent simultanément aux échelles locale et globale. L’actualisation constante des savoirs contemporains par les divers secteurs sociétaux ainsi que la perception sociale de différents risques conduisent à la prise de conscience des limites de la compétence technique des systèmes experts associés au domaine de la santé et des services sociaux. La santé publique, une des responsables légitimes de la gestion des risques modernes à l’échelle internationale, fait la promotion de la création d’espaces participatifs permettant l’interaction mutuelle d’acteurs intersectoriels et de savoirs multiples constamment modifiables. Il s’agit là d’une stratégie de relocalisation institutionnelle de l’action collective afin de rétablir la confiance envers la fiabilité des représentants de la santé publique internationale, qui ne répondent que partiellement aux besoins actuels de la sécurité populationnelle. Dans ce contexte, les conseils locaux de santé (CLS), mis en place à l’échelle internationale dans le cadre des politiques régionales de décentralisation des soins de santé primaires (SSP), représentent ainsi des espaces participatifs intéressants qui renferment dans leur fonctionnement tout un univers de forces de tension paradoxales. Ils nous permettent d’examiner la relation de caractère réciproque existant entre, d’une part, une approche plus empirique par l’analyse en profondeur des pratiques participatives (PP) plus spécifiques et, d’autre part, une compréhension conceptuelle de la mondialisation institutionnelle qui définit les tendances expansionnistes très générales des sociétés contemporaines. À l’aide du modèle de la transition organisationnelle (MTO), nous considérons que les PP intégrées à la gouverne des CLS sont potentiellement porteuses de changement organisationnel, dans le sens où elles sont la condition et la conséquence de nombreuses traductions stratégiques et systémiques essentiellement transformatrices. Or, pour qu’une telle transformation puisse s’accomplir, il est nécessaire de développer les compétences participatives pertinentes, ce qui confère au phénomène participatif la connotation d’apprentissage organisationnel de nouvelles formes d’action et d’intervention collectives. Notre modèle conceptuel semble fournir un ensemble de considérations épistémosociales fort intéressantes et très prometteuses permettant d’examiner en profondeur les dimensions nécessaires d’un renouvellement organisationnel de la participation dans le champ complexe de la santé publique internationale. Il permet de concevoir les interventions complexes comme des réseaux épistémiques de pratiques participatives (RÉPP) rassemblant des acteurs très diversifiés qui s’organisent autour d’un processus de conceptualisation transculturelle de connaissances ainsi que d’opérationnalisation intersectorielle des actions, et ce, par un ensemble de mécanismes d’instrumentalisation organisationnelle de l’apprentissage. De cette façon, le MTO ainsi que la notion de RÉPP permettent de mieux comprendre la création de passages incessants entre l’intégration locale des PP dans la gouverne des interventions complexes de la santé et des services sociaux – tels que les CLS –, et les processus plus larges de réorganisation démocratique de la santé publique dans le contexte global de la mondialisation institutionnelle. Cela pourrait certainement nous aider à construire collectivement l’expression réflexive et manifeste des valeurs démocratiques proposées dans la Déclaration d’Alma-Ata, publiée en 1978, lors de la première Conférence internationale sur les SSP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur les différentes formalisations du sens linguistique dans le cadre de la théorie Sens-Texte (TST) ; elle s’intéresse notamment à la représentation sémantique, la représentation la plus importante dans la modélisation du sens d’énoncés et d’unités lexicales de la langue. Cette étude a trois objectifs : premièrement, décrire trois formalisations de la représentation sémantique existant dans la TST – les réseaux sémantiques, les définitions lexicographiques et les définitions de la BDéf (des définitions très formalisées) ; deuxièmement, identifier les disparités et les décalages entre les formalisations choisies ; troisièmement, proposer des modifications aux formalisations existantes pour réduire au maximum ces disparités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’appropriation d’Internet par les visiteurs des centres d’accès public à cette technologie installés par le gouvernement et les ONG au Chili au début des années 2000. L’implantation de ces centres s’insère dans une politique officielle d’accès à une technologie qui est considérée comme un outil de développement. Les autorités s’appuient sur un discours plus large qui fait référence à la Société de l’information et au besoin de la population de participer adéquatement à celle-ci; l’accès et la maîtrise des technologies de l’information et communication, et en particulier l’Internet, permettrait aux personnes de bénéficier des avantages de cette nouvelle société. Conscients que ce n’est pas toute la population qui peut s’abonner à un service d’Internet à domicile, les télécentres aideraient les personnes à faible revenu à le faire. Au niveau théorique, nous avons mobilisé certaines notions liées aux études sur les usages des technologies. Plus spécifiquement, nous nous sommes servis du modèle de l’appropriation qui se penche sur la construction des significations que font les personnes de l’usage d’une technologie. Ce modèle montre la complexité du processus et les facteurs d’ordre personnel et social qui entrent en jeu. Selon ce modèle, le contexte social est clé pour comprendre la construction de la signification sur l’usage. Nous faisons aussi référence à d’autres études qui se penchent sur les différents moments de l’appropriation : la domestication, les propos de Michel de Certeau et la sociopolitique des usages. Finalement, nous proposons de considérer certains facteurs qui peuvent avoir une influence dans le processus d’appropriation, tels que les représentations des usagers, le contexte socio-économique, le réseau d’appui et le genre. D’un point de vue méthodologique, étant donné que nous voulions explorer un phénomène sans pour autant faire de généralisations, nous avons utilisé une démarche qualitative et comme stratégie de recherche, l’ethnographie. Nous avons visité 5 télécentres dans 4 villes ou villages de différentes régions du Chili. Nous avons fait des observations et des entrevues semi-ouvertes avec des usagers, des responsables des télécentres et les responsables des réseaux de télécentres. La thèse montre la complexité du processus d’appropriation et la spécificité de l’appropriation d’Internet dans les centres d’accès public. Nous avons constaté comment les relations interpersonnelles – le réseau d’appui- jouent un des rôles les plus importants dans le processus de rapprochement au centre et à la technologie, ainsi que dans le processus d’apprentissage et d’usage même. Nous avons constaté également que la construction de la signification de l’usage est étroitement liée au contexte et aux expériences de vie des personnes. Un même usage n’a pas la même signification pour tous nos interviewés : pour certains, le clavardage peut être seulement une activité de loisir et pour quelqu’un d’autre, un outil de développement personnel et émotionnel. Les projections sur les usages futurs ne sont pas les mêmes non plus chez les adultes et chez les plus jeunes, ces derniers étant davantage conscients de l’Internet comme un outil de travail. L’interprétation de l’usage diffère aussi entre les hommes et les femmes (plus que les usages mêmes): certaines femmes voient dans l’usage d’Internet et dans la participation au télécentre une activité qui les fait sortir de leur rôle typique de femme au foyer. Finalement, nous avons observé que la signification de l’usage n’est pas seulement construite à partir de l’expérience personnelle immédiate; les usages des autres sont toujours évalués par les visiteurs des télécentres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le relevé DEBRIS est effectué par le télescope spatial Herschel. Il permet d’échantillonner les disques de débris autour d’étoiles de l’environnement solaire. Dans la première partie de ce mémoire, un relevé polarimétrique de 108 étoiles des candidates de DEBRIS est présenté. Utilisant le polarimètre de l’Observatoire du Mont-Mégantic, des observations ont été effectuées afin de détecter la polarisation due à la présence de disques de débris. En raison d’un faible taux de détection d’étoiles polarisées, une analyse statistique a été réalisée dans le but de comparer la polarisation d’étoiles possédant un excès dans l’infrarouge et la polarisation de celles n’en possédant pas. Utilisant la théorie de diffusion de Mie, un modèle a été construit afin de prédire la polarisation due à un disque de débris. Les résultats du modèle sont cohérents avec les observations. La deuxième partie de ce mémoire présente des tests optiques du polarimètre POL-2, construit à l’Université de Montréal. L’imageur du télescope James-Clerk-Maxwell passe de l’instrument SCUBA à l’instrument SCUBA-2, qui sera au moins cent fois plus rapide que son prédécesseur. De même, le polarimètre suit l’amélioration et un nouveau polarimètre, POL-2, a été installé sur SCUBA-2 en juillet 2010. Afin de vérifier les performances optiques de POL-2, des tests ont été exécutés dans les laboratoires sub-millimétriques de l’Université de Western Ontario en juin 2009 et de l’Université de Lethbridge en septembre 2009. Ces tests et leurs implications pour les observations futures sont discutés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.