14 resultados para Field-based model

em Université de Montréal, Canada


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les populations du caribou forestier (Rangifer tarandus caribou) sont en déclin sur l’ensemble de leur aire de répartition en Amérique du Nord. Il s’avère que la prédation, amplifiée par l’exploitation forestière, en est la principale cause. Ce projet consiste à mettre en place un outil d'aide à la décision, permettant de modéliser les changements du risque de prédation chez le caribou forestier durant la succession forestière, et ce, selon différents scénarios d'aménagement forestier simulés sur la Côte-Nord du Québec, Canada. Ces scénarios, simulés de 2000 à 2150, sont caractérisés par (i) des coupes limitées aux blocs de protection et de remplacement, (ii) des coupes étendues sur le paysage, et finalement (iii) par l'absence de coupe dès 2000. Un modèle basé sur l'individu (MBI) permet de modéliser les déplacements simultanés du caribou forestier, de l'orignal (Alces alces) et du loup gris (Canis lupus) afin d'évaluer le risque de prédation selon les scénarios. En général, le risque de prédation est plus important lorsque les coupes sont limitées aux blocs de protection et de remplacement. En effet, il semble que ces blocs augmentent les probabilités de rencontre entre les proies et leurs prédateurs. Toutefois, certains résultats ne reflètent pas la littérature, ce qui montre la nécessité d'améliorer le MBI. Certaines recommandations visent finalement à bonifier ce MBI pour permettre l'analyse de la viabilité à long terme du caribou forestier en fonction de différents scénarios d'aménagement forestier.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La perception visuelle ne se résume pas à la simple perception des variations de la quantité de lumière qui atteint la rétine. L’image naturelle est en effet composée de variation de contraste et de texture que l’on qualifie d’information de deuxième ordre (en opposition à l’information de premier ordre : luminance). Il a été démontré chez plusieurs espèces qu’un mouvement de deuxième ordre (variation spatiotemporelle du contraste ou de la texture) est aisément détecté. Les modèles de détection du mouvement tel le modèle d’énergie d’Adelson et Bergen ne permettent pas d’expliquer ces résultats, car le mouvement de deuxième ordre n’implique aucune variation de la luminance. Il existe trois modèles expliquant la détection du mouvement de deuxième ordre : la présence d’une circuiterie de type filter-rectify-filter, un mécanisme de feature-tracking ou simplement l’existence de non-linéarités précoces dans le traitement visuel. Par ailleurs, il a été proposé que l’information visuelle de deuxième ordre soit traitée par une circuiterie neuronale distincte de celle qui traite du premier ordre. Bon nombre d’études réfutent cependant cette théorie et s’entendent sur le fait qu’il n’y aurait qu’une séparation partielle à bas niveau. Les études électrophysiologiques sur la perception du mouvement de deuxième ordre ont principalement été effectuées chez le singe et le chat. Chez le chat, toutefois, seules les aires visuelles primaires (17 et 18) ont été extensivement étudiées. L’implication dans le traitement du deuxième ordre de l’aire dédiée à la perception du mouvement, le Sulcus syprasylvien postéro-médian latéral (PMLS), n’est pas encore connue. Pour ce faire, nous avons étudié les profils de réponse des neurones du PMLS évoqués par des stimuli dont la composante dynamique était de deuxième ordre. Les profils de réponses au mouvement de deuxième ordre sont très similaires au premier ordre, bien que moins sensibles. Nos données suggèrent que la perception du mouvement par le PMLS serait de type form-cue invariant. En somme, les résultats démontrent que le PMLS permet un traitement plus complexe du mouvement du deuxième ordre et sont en accord avec son rôle privilégié dans la perception du mouvement.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche en explorant l’espace des préfixes par programmation dynamique, une solution coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet (Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus, ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les interventions proactives ou comportementales en classe sont reconnues empiriquement pour leur efficacité à améliorer le comportement ou le rendement scolaire des enfants ayant un TDAH (DuPaul & Eckert, 1997; Hoza, Kaiser, & Hurt, 2008; Pelham & Fabiano, 2008; Zentall, 2005). Or, l’écart entre les interventions probantes et celles retrouvées dans le milieu général de l’éducation souligne l’importance de répliquer les résultats d’études obtenus dans un environnement contrôlé dans un format de livraison réaliste. L’objectif principal de cette thèse est d’élaborer et d’évaluer un programme de consultation individuelle (PCI) fondé sur une démarche de résolution de problème et d’évaluation fonctionnelle, pour soutenir les enseignants du primaire dans la planification et la mise en œuvre cohérente des interventions privilégiées pour aider les enfants ayant un TDAH. D’abord, une recension des principales modalités d’intervention auprès des enfants ayant un TDAH est effectuée afin d’identifier les interventions à inclure lors du développement du programme. Par la suite, des solutions favorisant le transfert des interventions probantes à la classe ordinaire sont détaillées par la proposition du PCI ayant lieu entre un intervenant psychosocial et l’enseignant. Enfin, l’évaluation du PCI auprès de trente-sept paires enfant-enseignant est présentée. Tous les enfants ont un diagnostic de TDAH et prennent une médication (M). Les parents de certains enfants ont participé à un programme d’entraînement aux habiletés parentales (PEHP). L’échantillon final est: M (n = 4), M et PEHP (n = 11), M et PCI (n = 11), M, PEHP et PCI (n = 11). Les résultats confirment l’efficacité du PCI au-delà de M et M + PEHP pour éviter une aggravation des comportements inappropriés et améliorer le rendement scolaire des enfants ayant un TDAH. Par ailleurs, une augmentation de l’utilisation des stratégies efficaces par l’enseignant est observable lorsqu’il a à la fois participé au PCI et reçu une formation continue sur le TDAH en cours d’emploi. Les implications cliniques de l’intervention pour l’enfant ayant un TDAH et son enseignant de classe ordinaire sont discutées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les facteurs psychologiques tels que l'hypnose, l'émotion, le stress et l’attention exercent un effet modulant puissant sur la nociception et la douleur. Toutefois, l’influence de l'attention sur la nociception et la douleur, ainsi que les mécanismes neuronaux sous-jacents, ne sont pas clairs. La littérature actuelle sur la modulation attentionnelle des réponses spinales nociceptives, telles que mesurées par le réflexe RIII, et de la perception de l’intensité de la douleur est discordante et souvent contradictoire. Ce mémoire fournit un nouveau cadre pour examiner la modulation du réflexe RIII et de la douleur par l’attention. Une tâche de discrimination sensorielle a été décomposée en trois composantes attentionnelles : la vigilance, l’orientation, et le contrôle exécutif. Auparavant, la nature multidimensionnelle de l’attention fut largement ignorée dans la littérature. Nous démontrons que les composantes attentionnelles ont des effets modulatoires distincts sur la nociception et la douleur et suggérons que ceci représente une partie de la confusion présente dans la littérature. En prenant compte du stress indépendamment, nous démontrons, pour la première fois, que le stress inhibe la modulation attentionnelle du réflexe RIII ce qui indique une interaction et dissociation de la modulation des réponses nociceptives par l’attention et le stress. Ces résultats importants clarifient, en grande partie, les contradictions dans la littérature, puisque les tâches cognitives produisent souvent des augmentations du stress ce qui confond l’interprétation des résultats. De plus, la tâche de discrimination inclut des stimuli visuels et somatosensoriels et révèle que l’influence de l'attention sur la douleur est spatialement spécifique tandis que la modulation attentionnelle de la nociception est spécifique à la modalité des stimuli, au moins en ce qui concerne les modalités examinées. A partir de ces résultats, un nouveau modèle de la modulation attentionnelle des processus de la douleur, basée sur les composantes attentionnelles, a été proposé. Celui-ci est appuyé par la littérature et fournit une explication systématique et intégratrice des résultats antérieurement contradictoires. De plus, à partir de ce modèle, plusieurs mécanismes neuronaux ont été proposés pour sous-tendre la modulation attentionnelle de la nociception et de la douleur.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La recherche présentée dans le cadre de ce mémoire porte sur le développement de la Théorie linguistique de la traduction telle qu’élaborée par des traducteurs soviétiques à partir des années 1950. Ce mémoire vise à démontrer les particularités de l’évolution des connaissances traductologiques sous la pression politique, idéologique et institutionnelle du régime soviétique (1922-1991). En particulier, le travail cherche à expliquer les raisons qui ont abouti à l’isolement théorique de la traductologie russe. À partir de la théorie du polysystème littéraire d’Even-Zohar et de son analyse de la structure des systèmes littéraires, ce mémoire examine la structure et l’évolution des différents facteurs (producteur, institutions, produit, répertoire, marché) qui ont façonné la configuration spécifique de la Théorie linguistique de la traduction en tant que produit du système soviétique de traduction, tel qu’il se développe dans les conditions particulières du polysystème littéraire soviétique. L’analyse des travaux des auteurs dits « canonisés » de l’approche linguistique russe (Fyodorov, Retsker, Švejtser, Barkhoudarov, Komissarov) permet de montrer comment la Théorie linguistique de la traduction s’est imposée comme la seule théorie capable de survivre au contexte soviétique de pression idéologique et de contrôle total du régime communiste. Ce sont ces facteurs qui expliquent aussi le décalage théorique et institutionnel observé entre les traductologies russe et occidentale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.