7 resultados para Embedding
em Université de Montréal, Canada
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"
Resumo:
Les systèmes de traduction statistique à base de segments traduisent les phrases un segment à la fois, en plusieurs étapes. À chaque étape, ces systèmes ne considèrent que très peu d’informations pour choisir la traduction d’un segment. Les scores du dictionnaire de segments bilingues sont calculés sans égard aux contextes dans lesquels ils sont utilisés et les modèles de langue ne considèrent que les quelques mots entourant le segment traduit.Dans cette thèse, nous proposons un nouveau modèle considérant la phrase en entier lors de la sélection de chaque mot cible. Notre modèle d’intégration du contexte se différentie des précédents par l’utilisation d’un ppc (perceptron à plusieurs couches). Une propriété intéressante des ppc est leur couche cachée, qui propose une représentation alternative à celle offerte par les mots pour encoder les phrases à traduire. Une évaluation superficielle de cette représentation alter- native nous a montré qu’elle est capable de regrouper certaines phrases sources similaires même si elles étaient formulées différemment. Nous avons d’abord comparé avantageusement les prédictions de nos ppc à celles d’ibm1, un modèle couramment utilisé en traduction. Nous avons ensuite intégré nos ppc à notre système de traduction statistique de l’anglais vers le français. Nos ppc ont amélioré les traductions de notre système de base et d’un deuxième système de référence auquel était intégré IBM1.
Resumo:
Soit (M,ω) un variété symplectique fermée et connexe.On considère des sous-variétés lagrangiennes α : L → (M,ω). Si α est monotone, c.- à-d. s’il existe η > 0 tel que ημ = ω, Paul Biran et Octav Conea ont défini une version relative de l’homologie quantique. Dans ce contexte ils ont déformé l’opérateur de bord du complexe de Morse ainsi que le produit d’intersection à l’aide de disques pseudo-holomorphes. On note (QH(L), ∗), l’homologie quantique de L munie du produit quantique. Le principal objectif de cette dissertation est de généraliser leur construction à un classe plus large d’espaces. Plus précisément on considère soit des sous-variétés presque monotone, c.-à-d. α est C1-proche d’un plongement lagrangian monotone ; soit les fibres toriques de variétés toriques Fano. Dans ces cas non nécessairement monotones, QH(L) va dépendre de certains choix, mais cela sera irrelevant pour les applications présentées ici. Dans le cas presque monotone, on s’intéresse principalement à des questions de déplaçabilité, d’uniréglage et d’estimation d’énergie de difféomorphismes hamiltoniens. Enfin nous terminons par une application combinant les deux approches, concernant la dynamique d’un hamiltonien déplaçant toutes les fibres toriques non-monotones dans CPn.
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
Cette étude s’intéresse à l’évolution formelle du jeu d’aventure de 1976 à 1999. Elle se propose de mieux comprendre les facteurs historiques contribuant à l’apparition du genre, son institution et ses transformations. La recherche est fondée sur l’analyse du discours de la presse spécialisée en jeux d’ordinateur et d’un corpus étendu d’œuvres. L’une des thèses proposées est que l’identité générique du jeu d’aventure est fondée sur une expérience vidéoludique demeurant relativement constante malgré des variations importantes de formes. Cette expérience est assurée par la reproduction des principaux éléments d’une architecture générale de design de jeu inaugurée par Adventure en 1977. Les variations formelles ponctuelles résultent d’une négociation entre la volonté de s’adapter aux changements de contexte de l’écologie du jeu d’ordinateur et la résistance d’une architecture ludique établie. La pertinence d’une histoire d’un genre vidéoludique est justifiée au premier chapitre en fonction de l’état actuel des connaissances sur l’histoire du jeu vidéo et du jeu d’aventure. On y précise également le cadre théorique, la méthodologie et les sources étudiées. Le deuxième chapitre s’intéresse à la genèse d’Adventure de Crowther et Woods (1976; 1977) en fonction des diverses pratiques culturelles dans lesquelles l’œuvre s’inscrit. Cette analyse permet d’en dégager l’architecture ludique. Le troisième chapitre porte sur le « tournant narratif » du jeu d’aventure ayant lieu au début des années 1980. On y décrit différents facteurs historiques poussant le genre vers l’enchâssement d’histoires pré-écrites afin d’en faire un véhicule narratif. Le quatrième chapitre décrit le contexte du « tournant graphique », passage du jeu d’aventure d’une représentation textuelle à un régime visuel, ainsi que ses conséquences expérientielles. Le « tournant ergonomique » décrit au cinquième chapitre traite de l’apparition du modèle « pointer et cliquer » en fonction des avancées des connaissances concernant les interactions humain-machine ainsi que de la maturation du design de jeu comme pratique autonome. Le dernier chapitre relate l’apogée du jeu d’aventure au début de la révolution multimédia sous ses formes de film interactif et « Myst-like » puis du ralentissement – voire de l’arrêt – de son évolution formelle.
Resumo:
La diversification des résultats de recherche (DRR) vise à sélectionner divers documents à partir des résultats de recherche afin de couvrir autant d’intentions que possible. Dans les approches existantes, on suppose que les résultats initiaux sont suffisamment diversifiés et couvrent bien les aspects de la requête. Or, on observe souvent que les résultats initiaux n’arrivent pas à couvrir certains aspects. Dans cette thèse, nous proposons une nouvelle approche de DRR qui consiste à diversifier l’expansion de requête (DER) afin d’avoir une meilleure couverture des aspects. Les termes d’expansion sont sélectionnés à partir d’une ou de plusieurs ressource(s) suivant le principe de pertinence marginale maximale. Dans notre première contribution, nous proposons une méthode pour DER au niveau des termes où la similarité entre les termes est mesurée superficiellement à l’aide des ressources. Quand plusieurs ressources sont utilisées pour DER, elles ont été uniformément combinées dans la littérature, ce qui permet d’ignorer la contribution individuelle de chaque ressource par rapport à la requête. Dans la seconde contribution de cette thèse, nous proposons une nouvelle méthode de pondération de ressources selon la requête. Notre méthode utilise un ensemble de caractéristiques qui sont intégrées à un modèle de régression linéaire, et génère à partir de chaque ressource un nombre de termes d’expansion proportionnellement au poids de cette ressource. Les méthodes proposées pour DER se concentrent sur l’élimination de la redondance entre les termes d’expansion sans se soucier si les termes sélectionnés couvrent effectivement les différents aspects de la requête. Pour pallier à cet inconvénient, nous introduisons dans la troisième contribution de cette thèse une nouvelle méthode pour DER au niveau des aspects. Notre méthode est entraînée de façon supervisée selon le principe que les termes reliés doivent correspondre au même aspect. Cette méthode permet de sélectionner des termes d’expansion à un niveau sémantique latent afin de couvrir autant que possible différents aspects de la requête. De plus, cette méthode autorise l’intégration de plusieurs ressources afin de suggérer des termes d’expansion, et supporte l’intégration de plusieurs contraintes telles que la contrainte de dispersion. Nous évaluons nos méthodes à l’aide des données de ClueWeb09B et de trois collections de requêtes de TRECWeb track et montrons l’utilité de nos approches par rapport aux méthodes existantes.
Resumo:
L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.