981 resultados para Linguistique informatique
Resumo:
Ce mémoire porte sur la variabilité stylistique présente dans l’assemblage céramique du site McDonald, dans la région de Saint-Anicet, et a pour principal objectif de déterminer comment s’exprime cette variabilité à travers les différents niveaux identitaires auxquels appartiennent les Iroquoiens du Saint-Laurent, soit la famille linguistique iroquoienne, la sphère d’interaction des Iroquoiens du Saint-Laurent, les provinces culturelles, les villages, les clans et les maisonnées. Cette étude abordera également la distribution spatiale des vases retrouvés sur le site à l’aide d’un travail de remontage effectué à l’échelle du site. Cette méthode permettra également d’aborder le mode d’occupation du site McDonald, notamment par l’étude de la relation existant entre le contenu des habitations et celui présent dans chacun des dépotoirs. Une fois ce travail effectué, l’étude de la variabilité stylistique sera abordée par une étude comparative des unités décoratives observées sur les différents registres de décoration des vases à l’intérieur d’un site, c’est-à-dire entre les différentes maisons-longues qui le composent, mais également avec d’autres sites iroquoiens de la vallée du Saint-Laurent. Une étude simultanée des résultats de ces comparaisons intra et intersites aura pour objectif d’identifier la variabilité présente dans les différents niveaux identitaires auxquels appartiennent les habitants du site McDonald et plus précisément la maisonnée, le clan, le village et la province iroquoienne.
Resumo:
L'œuvre à l'étude dans cet essai est la nouvelle intitulée Premier Amour de Samuel Beckett. À travers l'analyse de deux mises en scène de l’acte d'inscription présentes dans cette courte fiction, ce mémoire traite de la question que nous posent les inscriptions lorsque nous les lisons et lorsque nous les inscrivons. Il se divise donc en deux chapitres : le premier déploie l'étude de l'inscription linguistique en tant qu'inscription visible et lisible; le second se concentre sur l'inscription en tant qu'elle est marquée par le concept de legs. En caractérisant et en comparant ces deux inscriptions, d’une part funéraire (l'épitaphe que compose le narrateur pour lui-même suite à la mort de son père) et d’autre part amoureuse (le nom que trace le narrateur au moment où il « tombe amoureux »), ce mémoire expose comment Premier Amour peut être envisagé comme un premier pas dans une compréhension générale de la constitution écrite d'un « legs littéraire ». Surtout, il explicite comment s’orchestre l'imbrication conceptuelle de l’inscription et du legs qu'elle véhicule et présuppose, puisque cette imbrication est inhérente à la compréhension de notre monde et de la littérature. En conclusion, cette étude mène à considérer le rapport conflictuel entre la contemporanéité rêvant d’un monde sans inscriptions et l’inévitabilité de l’inscription.
Resumo:
Les positions des évènements de recombinaison s’agrègent ensemble, formant des hotspots déterminés en partie par la protéine à évolution rapide PRDM9. En particulier, ces positions de hotspots sont déterminées par le domaine de doigts de zinc (ZnF) de PRDM9 qui reconnait certains motifs d’ADN. Les allèles de PRDM9 contenant le ZnF de type k ont été préalablement associés avec une cohorte de patients affectés par la leucémie aigüe lymphoblastique. Les allèles de PRDM9 sont difficiles à identifier à partir de données de séquençage de nouvelle génération (NGS), en raison de leur nature répétitive. Dans ce projet, nous proposons une méthode permettant la caractérisation d’allèles de PRDM9 à partir de données de NGS, qui identifie le nombre d’allèles contenant un type spécifique de ZnF. Cette méthode est basée sur la corrélation entre les profils représentant le nombre de séquences nucléotidiques uniques à chaque ZnF retrouvés chez les lectures de NGS simulées sans erreur d’une paire d’allèles et chez les lectures d’un échantillon. La validité des prédictions obtenues par notre méthode est confirmée grâce à analyse basée sur les simulations. Nous confirmons également que la méthode peut correctement identifier le génotype d’allèles de PRDM9 qui n’ont pas encore été identifiés. Nous conduisons une analyse préliminaire identifiant le génotype des allèles de PRDM9 contenant un certain type de ZnF dans une cohorte de patients atteints de glioblastomes multiforme pédiatrique, un cancer du cerveau caractérisé par les mutations récurrentes dans le gène codant pour l’histone H3, la cible de l’activité épigénétique de PRDM9. Cette méthode ouvre la possibilité d’identifier des associations entre certains allèles de PRDM9 et d’autres types de cancers pédiatriques, via l’utilisation de bases de données de NGS de cellules tumorales.
Resumo:
Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.
Resumo:
La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.
Resumo:
Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.
Resumo:
L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
Bien qu’elle ne constitue en rien une pratique marginale, la révision, en tant que relecture et modification d’une traduction existante dans le but d’une nouvelle édition, a suscité jusqu’à maintenant très peu d’intérêt en traductologie. La retraduction, activité avec laquelle elle entretient de nombreux liens, a quant à elle souvent été abordée comme le résultat de simples schémas monocausaux, fondés sur la défaillance ou sur l’évolution des normes. Le présent mémoire, à partir de l’analyse comparative de la trilogie Mémoire du feu (publiée pour la première fois chez Plon en 1985 et 1988) — traduction française de Memoria del fuego, d’Eduardo Galeano (1982, 1984 et 1986) — et de sa révision (publiée chez Lux en 2013), démontre plutôt la multiplicité des facteurs sous-tendant le processus de révision et la nécessité d’étudier leurs interactions. Notre étude de cas, alliant une analyse textuelle, une étude contextuelle et un travail de terrain, révèle l’influence significative des pratiques, des positions idéologiques et des conceptions des agents tant sur l’entreprise d’une révision que sur son déroulement.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
Cette étude décrit le développement des structures morphosyntaxiques et morphophonologiques chez les enfants francophones âgés entre 3 et 6 ans. Ces données pourront contribuer à particulariser certaines difficultés morphosyntaxiques et morphophonologiques retrouvées chez l’enfant déficient auditif québécois porteur d’implant cochléaire. Le premier objectif de notre projet pilote vise à comparer les habiletés morphosyntaxiques et morphophonologiques au niveau expressif de l’enfant porteur d’IC à celles des enfants entendants de même âge auditif et chronologique. L’étude évalue spécifiquement l’accord intra-nominal en genre, et les processus de fusion, d’élision et de liaison. Nous prédisons qu’une entrée auditive inférieure à la norme aura un impact sur l’acquisition des règles morpho(phonolo)giques en français. Le deuxième objectif consiste à observer si la maîtrise de ces structures est liée à la maîtrise de la production phonémique chez l’enfant franco-québécois porteur d’IC. L’élaboration de deux tâches expérimentales et la passation de tâches évaluatives et expérimentales ont permis d’étudier les difficultés morphologiques et phonologiques de l’enfant porteur d'IC. Le groupe témoin a inclus 14 enfants à développement typique. Ils ont été comparés au cas de Vincent, âgé de 59 mois, porteur d’implant cochléaire. Ce dernier présente des étapes de développement linguistique décalées qui correspondent à celles d’enfants appariés sur l’âge auditif (date d’IC) plutôt qu’à l’âge chronologique (AC). Nous avons observé des similitudes et des différences, sur le plan phonologique et morphosyntaxique, entre Vincent et les enfants entendants : il présente des performances significativement moins bonnes que la norme pour certaines de structures morphosyntaxiques et processus morphophonologiques (accord du genre, élision, fusion) mais meilleures que les témoins dans la tâche de liaison. Nous pensons que le gain prothétique n’est pas le seul facteur qui a un impact sur le développement linguistique précoce et que d’autres facteurs l’influenceraient, tels l’âge d’implantation, le mode de communication, l’implantation bilatérale, l’investissement des parents et les effets d’apprentissage. Enfin, notre étude de cas n’a pu étayer si la maîtrise de la production phonémique est en relation avec la maîtrise de certaines structures et processus morphologiques.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Les introns sont des portions de gènes transcrites dans l’ARN messager, mais retirées pendant l’épissage avant la synthèse des produits du gène. Chez les eucaryotes, on rencontre les introns splicéosomaux, qui sont retirés de l’ARN messager par des splicéosomes. Les introns permettent plusieurs processus importants, tels que l'épissage alternatif, la dégradation des ARNs messagers non-sens, et l'encodage d'ARNs fonctionnels. Leurs rôles nous interrogent sur l'influence de la sélection naturelle sur leur évolution. Nous nous intéressons aux mutations qui peuvent modifier les produits d'un gène en changeant les sites d'épissage des introns. Ces mutations peuvent influencer le fonctionnement d'un organisme, et constituent donc un sujet d'étude intéressant, mais il n'existe actuellement pas de logiciels permettant de les étudier convenablement. Le but de notre projet était donc de concevoir une méthode pour détecter et analyser les changements des sites d'épissage des introns splicéosomaux. Nous avons finalement développé une méthode qui repère les évènements évolutifs qui affectent les introns splicéosomaux dans un jeu d'espèces données. La méthode a été exécutée sur un ensemble d'espèces d'oomycètes. Plusieurs évènements détectés ont changé les sites d’épissage et les protéines, mais de nombreux évènements trouvés ont modifié les introns sans affecter les produits des gènes. Il manque à notre méthode une étape finale d'analyse approfondie des données récoltées. Cependant, la méthode actuelle est facilement reproductible et automatise l'analyse des génomes pour la détection des évènements. Les fichiers produits peuvent ensuite être analysés dans chaque étude pour répondre à des questions spécifiques.
Resumo:
L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.