12 resultados para base de données

em Université Laval Mémoires et thèses électroniques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les unités linguistiques sous-lexicales (p.ex., la syllabe, le phonème ou le phone) jouent un rôle crucial dans le traitement langagier. En particulier, le traitement langagier est profondément influencé par la distribution de ces unités. Par exemple, les syllabes les plus fréquentes sont articulées plus rapidement. Il est donc important d’avoir accès à des outils permettant de créer du matériel expérimental ou clinique pour l’étude du langage normal ou pathologique qui soit représentatif de l’utilisation des syllabes et des phones dans la langue orale. L’accès à ce type d’outil permet également de comparer des stimuli langagiers en fonction de leurs statistiques distributionnelles, ou encore d’étudier l’impact de ces statistiques sur le traitement langagier dans différentes populations. Pourtant, jusqu’à ce jour, aucun outil n’était disponible sur l’utilisation des unités linguistiques sous-lexicales du français oral québécois. Afin de combler cette lacune, un vaste corpus du français québécois oral spontané a été élaboré à partir d’enregistrements de 184 locuteurs québécois. Une base de données de syllabes et une base de données de phones ont ensuite été construites à partir de ce corpus, offrant une foule d’informations sur la structure des unités et sur leurs statistiques distributionnelles. Le fruit de ce projet, intitulé SyllabO +, sera rendu disponible en ligne en accès libre via le site web http://speechneurolab.ca/fr/syllabo dès la publication de l’article le décrivant. Cet outil incomparable sera d’une grande utilité dans plusieurs domaines, tels que les neurosciences cognitives, la psycholinguistique, la psychologie expérimentale, la phonétique, la phonologie, l’orthophonie et l’étude de l’acquisition des langues.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce travail de thèse présente deux grands axes. Le premier axe, touche les traitements du bois dans le but principal de réduire les variations dimensionnelles et d’améliorer la résistance à l’attaque des champignons lignivores. Le second axe quant à lui, touche l’aspect environnemental du traitement acide citrique-glycérol. Ce dernier a pour but principal de démontrer que le prolongement de la durée de vie en service du produit lambris traité, compense les impacts environnementaux causés par ce traitement. Dans le premier axe, deux traitements ont été réalisés sur deux essences de pin (Pinus strobus L. et Pinus contorta D.). Un traitement à l’anhydride maléique et un autre traitement avec une solution d’acide citrique – glycérol brute (AC-G). Dans le premier cas, les effets de deux paramètres (la durée de séchage et la température d’estérification) sur les résultats des essais de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré ont été évalués. Trois niveaux de durée de séchage après imprégnation (12 h, 18 h et 24 h) et trois niveaux de température d’estérification (140 °C, 160 °C et 180 °C) ont été considérés. Dans le second cas, après identification du meilleur catalyseur (HCl) et du meilleur ratio acide citrique – glycérol (3/1) pendant les essais préliminaires, les performances de ce traitement sur la stabilité dimensionnelle, la résistance à la pourriture fongique, la dureté de surface et l’adhérence des couches de revêtement de peinture sur la surface du substrat bois ont été analysées. Les résultats obtenus ont été appuyés par une suite d’analyses qualitatives et quantitatives pour mieux comprendre et expliquer. Les analyses qualitatives sont : (i) la spectroscopie infrarouge à transformée de Fourier (IRTF) et (ii) la microscopie électronique à balayage (MEB) tandis que la quantitative, l’analyse par perte de masse a été faite par pesée. Dans le second axe, une analyse des impacts environnementaux du traitement AC-G a été effectuée par le biais du logiciel SimaPro v8. La base de données Ecoinvent v3 et la méthode d’analyse d’impact Impact 2002+ ont été utilisées dans cette partie du travail de thèse. Sur la base des résultats du second traitement (AC-G) et des travaux disponibles dans la littérature, nous avons estimé, une durée de vie en service des lambris traités. Les différents scénarios de la durée de vie du lambris traité mis sur pied par rapport à celle offerte aujourd’hui par l’industrie, nous permettent de modéliser les impacts environnementaux du traitement. A cette fin, l’analyse de cycle de vie (ACV) a été utilisée comme outil de conception. En conclusion, les paramètres, durée de séchage et température d’estérification influencent les résultats obtenus dans le cas du traitement du bois à l’anhydride maléique. La combinaison 24 h de séchage et 180 °C, température d’estérification, représente les paramètres qui offrent les meilleurs résultats de stabilité dimensionnelle, de résistance à la dégradation fongique et de vieillissement accéléré. Le traitement AC-G améliore la stabilité dimensionnelle, la résistance à la dégradation fongique et la dureté de surface des échantillons. Cependant, le traitement réduit l’adhérence des couches de peinture. Les impacts environnementaux produits par le traitement AC-G sont majoritairement liés à la consommation de la ressource énergie (électricité). Le traitement prolonge la durée de vie en service du lambris traité et il a été mis en évidence que le scénario de durée de vie qui permettrait que le lambris traité puisse se présenter comme un produit à faible impact environnemental par rapport au lambris non traité est celui d’une durée de vie de 55 ans.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les espèces végétales exotiques peuvent devenir envahissantes une fois naturalisées sur un nouveau territoire. La méthode de lutte la plus efficace étant la prévention, il est primordial de pouvoir prédire à l’avance si une nouvelle espèce introduite deviendra envahissante. Afin d’en arriver à un outil d’aide à la décision facile d’utilisation, il importe de développer des modèles plus simples, ayant peut-être un pouvoir explicatif moins grand, mais qui seront par contre plus faciles à comprendre et à utiliser. Il est possible de simplifier un modèle en utilisant moins de variables mais en les choisissant mieux, sur une base théorique. Le but de ce mémoire est donc de tester la force de la relation liant l’aire de répartition d’origine eurasiatique avec l’abondance et l’étendue de l’aire de répartition d’introduction en Amérique du Nord. La variable explicative principale, l’aire de répartition d’origine eurasiatique, a été utilisée avec deux autres covariables, soit le temps de résidence sur le continent nord-américain et le cycle de vie des espèces afin de bâtir un modèle statistique. Ce dernier a été testé à deux échelles géographiques, soit à l’échelle d’un pays entier, les États-Unis, et à une échelle plus régionale. L’utilisation de spécimens d’herbier et d’autres sources de données disponibles en ligne a permis de construire une base de données comportant un grand nombre d’espèces (N = 481). Les modèles ont révélé qu’avec peu de variables explicatives, il est possible d’expliquer une proportion importante du phénomène d’envahissement et d’abondance (> 40 %) dans certaines régions des États-Unis. Cette recherche contribue au développement d’un outil d’aide à la décision simple et démontre qu’il est possible d’expliquer une partie importante le phénomène d’abondance et d’étendue des espèces exotiques grâce à des données disponibles et à un petit nombre de variables bien sélectionnées.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’accessibilité universelle est de nos jours très importante pour nos villes, car elle permet à toute personne, ayant des incapacités physiques ou non, de mener à bien ses activités socio-professionnelles. À travers le monde, plusieurs projets ont vu le jour comme AXS Map à New York ou AccesSIG en France. Au Canada, un projet multidisciplinaire nommé MobiliSIG ayant pour lieu d’expérimentation la ville de Québec a vu le jour en 2013. L’objectif du projet MobiliSIG est de concevoir et développer une application multimodale d’assistance au déplacement des personnes à mobilité réduite. Ce projet se concentre principalement sur la constitution d’une base de données d’accessibilité se référant au modèle PPH (Processus de Production du Handicap). Nos travaux visent à définir la diffusion d’itinéraires adaptés, adaptables et adaptatifs liés à des contextes multi-utilisateurs, multiplateformes, multimodaux (interfaces et transports) et multi-environnements. Après une revue de littérature et afin d’identifier et définir les besoins liés à cette diffusion des données de navigation, nous nous sommes attelés à la description de plusieurs scénarios pour mieux comprendre les besoins des utilisateurs : planification d’un déplacement et navigation dans le milieu urbain ; parcours multimodal ; recherche d’un point d’intérêt (toilettes accessibles). Cette démarche nous a permis également d’identifier les modes de communication et représentations souhaitées de l’itinéraire (carte, texte, image, parole, …) et de proposer une approche basée sur la transformation de l’itinéraire reçu de la base de données d’accessibilité. Cette transformation est effectuée en tenant compte des préférences de l’utilisateur, de son appareil et de son environnement. La diffusion de l’itinéraire se fait ensuite par un service web de diffusion conçu selon le standard du W3C sur les architectures multimodales (MMI) en combinaison avec le concept de la plasticité des interfaces. Le prototype développé a permis d’avoir comme résultat un système qui diffuse de façon générique l’information de navigation adaptée, adaptable et adaptative à l’utilisateur, à son appareil et à son environnement.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette étude évalue l’impact des formations formelles sur le revenu et la durée du chômage des immigrants de la classe des travailleurs qualifiés résidant dans la province de Québec. En effet, elle cherche à vérifier l’adéquation entre les formations formelles et les caractéristiques observables de ces immigrants d’une part, puis l’adéquation entre ces formations et la situation économique des immigrants d’autre part. Après avoir effectué une analyse descriptive de la base de données, la méthode d’appariement multiple basée sur les scores de propension généralisés est utilisée pour estimer l’effet causal des formations formelles sur le revenu et la durée du chômage des immigrants. De plus, la méthode de régression par quantile est utilisée pour faire ressortir l’effet causal de ces formations par quantile. En moyenne, les résultats de l’étude montrent que les formations formelles diminuent la durée de chômage des participants, avec une baisse de 580 jours pour les participants aux formations linguistiques. Les effets quantiles des formations professionnelles et académiques sont plus élevés sur le 75è quantile des distributions de la durée du chômage, avec des baisses respectives de 491 et 495 jours. Cependant, les formations formelles n’augmentent pas le revenu des participants. C’est pourquoi le gouvernement du Québec doit bien clarifier ses objectifs d’immigration selon l’augmentation de l’employabilité d’une part ou selon l’augmentation du niveau salarial d’autre part. Pour une optimisation des ressources, il est recommandé au gouvernement d’orienter les immigrants vers les formations linguistiques car elles diminuent plus la durée du chômage et de chercher la meilleure politique qui permettrait de rattraper l’écart salarial entre les participants et les non-participants des formations.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’objectif général des travaux présentes dans cette thèse de doctorat était d’établir la relation entre l’alimentation et la composition du lait des vaches laitières, en mettant l’emphase sur les teneurs en matières grasses (TMG), sur l’urée du lait et sur l’efficience d’utilisation de l’azote. Pour la TMG, c’est principalement la relation entre cette teneur et la différence alimentaire cations-anions (DACA) qui a été investiguée. Une base de données de 2 142 troupeaux québécois a été utilisée et la relation entre la composition de la ration, incluant la DACA, et la TMG du lait a été déterminée à l’aide de régressions multiples. Il a été possible de prédire entre 32 et 66 % de la variation de la TMG du lait en fonction du stade de lactation. Malgré plusieurs interactions trouvées, une augmentation de la DACA, une supplémentation avec de l’acide palmitique et une distribution des aliments en ration totale mélangée ont eu une relation positive avec la TMG du lait, tandis qu’une augmentation de la proportion de concentrés dans la ration a eu un effet négatif. Les modèles développés ont montré l’importance de la gestion de l’alimentation sur la TMG du lait. En plus, ils ont démontré l’intérêt de considérer la DACA dans la formulation de rations chez la vache laitière. Dans une deuxième étude, la même base des données a été utilisée pour identifier les facteurs nutritionnels qui peuvent faire varier la teneur en urée du lait. Contrairement à ce qui est mentionné dans la littérature, tant des corrélations positives et que négatives entre les teneurs en urée du lait et en protéines des rations à l’intérieur des troupeaux sur une période de 36 mois ont été obtenues. Pour mieux comprendre ces relations, les résultats de performances et d’alimentation de 100 troupeaux avec des corrélations positives (r > 0,69) et de 100 troupeaux avec des corrélations négatives (r < -0,44) entre la teneur en urée du lait et en protéine brute de la ration ont été comparés. Les résultats n’ont pas montré de différences entre les deux groupes ni pour la composition de la ration, ni pour l’urée du lait. Ces résultats ne permettent pas d’identifier le meilleur contexte pour l’utilisation de la teneur en urée du lait comme un outil de gestion de l’alimentation. Ces observations soulèvent des questions sur la validité de l’utilisation des statistiques d’alimentation provenant de la base de données utilisée pour des évaluations nutritionnelles plus spécifiques. Considérant les résultats du projet précédent, le dernier projet visait à mieux comprendre les caractéristiques des fermes avec différentes efficiences d’utilisation de l’azote en utilisant des données plus fiables. Ainsi, 100 fermes laitières au Québec ont été visitées pour recueillir les données de production, de consommation d’aliments et de gestion de leur troupeau. Ces fermes ont été divisées en quatre groupes par une analyse en grappes selon leur efficience d’utilisation de l’azote. La comparaison entre les groupes a montré que les fermes dans les groupes avec une plus haute efficience d’utilisation d’azote ont une production laitière moyenne par vache plus élevée. Pour les stratégies d’alimentation, les fermes plus efficientes donnent plus d’énergie, mais moins de protéines brutes que les fermes des groupes moins efficients. Les résultats ont également montré l’importance de la prise alimentaire des vaches sur l’efficience d’utilisation de l’azote puisque les fermes des groupes avec la plus grande efficience étaient également celles avec la plus faible prise alimentaire. Aussi, les résultats n’ont pas permis d’établir clairement la relation entre la teneur en urée du lait et l’efficience de l’utilisation de l’azote. En effet, des valeurs différentes pour l’urée du lait étaient obtenues entre le groupe plus efficient et le moins efficient, mais la faible ampleur de variation de l’efficience d’utilisation de l’azote des groupes intermédiaires n’a pas permis d’observer de différences pour l’urée du lait. Finalement, outre une réduction des risques de pollution, les fermes des groupes plus efficaces pour l’utilisation de l’azote étaient également celles avec la marge sur les coûts d’alimentation par les vaches plus élevées. Par conséquent, il y a aussi un intérêt économique à améliorer l’efficience de l’utilisation de l’azote sur les fermes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans cette thèse, je présente une étude (1) du rôle de la 17β-HSD5 dans la modulation des taux d’hormones et dans la prolifération, et l’impact de l’expression de la 17β-HSD5 sur d’autres protéines de BC cellules; (2) une étude comparative sur trois enzymes (17β-HSD1, 17β-HSD7 et 3α-HSD3) avec la provision de DHEA et ses substrats directes soit l’E1 ou la DHT. Les principaux résultats obtenus dans cette étude sont les suivants: (1) en utilisant l’ARN d’interférence de la 17β-HSD5, des immunodosages enzymatiques et des tests de prolifération de cellules démontrent que l’expression de la 17β-HSD5 est positivement corrélée à un niveau de T et de DHT dans les BCC, mais négativement corrélée pour l’E2 et la prolifération des cellules de BC (2) les analyses quantitatives de PCR en temps réel et de Western blot ont démontré que l’inhibition de l’expression de la 17β-HSD5 régule à la hausse l’expression de l’aromatase dans les cellules MCF-7. (3) L’analyse d’ELISA de la prostaglandine E2 a vérifié que l’expression accrue de l’aromatase a été modulée par des niveaux élevés de PGE2 après l’inactivation de l’expression du gène de la 17β-HSD5. (4) Le test de cicatrisation a montré que l’inactivation de l’expression du gène de la 17β-HSD5 favorise l’augmentation de la migration cellulaire. (5) L’expression du gène 17β-HSD5 dans des échantillons cliniques, à partir de l’analyse de base de données ONCOMINE, a montré que sa plus faible expression a été corrélée avec le statut de l’HER-2 et de la métastase de la tumeur. (6) Les données protéomiques révèlent également que des protéines impliquées dans les voies métaboliques sont fortement exprimées dans les cellules MCF-7 après l’inactivation de l’expression du gène de la 17β-HSD5. (7) L’étude n’a démontré aucune différence dans la fonction biologique de la 17β-HSD1 et de la 17β-HSD7 lorsqu’elles sont cultivées avec différentes stéroïdes: tel que les niveaux de stéroides, la prolifération cellulaire et les protéines régulées. (8) Toutefois, la supplémentation du milieu de culture se révèle avoir un impact marqué sur l’étude de la 3α-HSD3. (9). Nous avons proposé que l’utilisation de la DHEA comme source d’hormone puisse entraîner une meilleure imitation des conditions physiologiques post-ménopausales en culture cellulaire selon l’intracrinologie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse se centre sur l’analyse des politiques éducatives, qui visent la population indigène au Mexique. Son objectif est de rechercher l’impact qu’elles ont sur les constructions identitaires, de genre et d’ethnie, chez les petites filles et les garçons mexicains náhuas. Il s’agit d’un travail de recherche depuis l’instrumentation des politiques éducatives (à partir des stratégies, des programmes et des actions) que réalise la Direction Générale d’Éducation Indigène (DGEI), une instance appartenant au Ministère d’Éducation Publique (SEP), pour analyser les processus générés dans les pratiques scolaires – et extrascolaires – et les signifiés construits par les sujets éducatifs. Pour accomplir cet objectif, nous avons réalisé un travail ethnographique fondé sur des concepts théoriques et méthodologiques de l’ethnographie institutionnelle et du féminisme. La recherche présentée est fondamentalement qualitative, générée à partir du point de vue de l’ethnographie institutionnelle sur les politiques publiques conçues et réalisées par la DGEI dans les entités fédératives. A cet égard, nous avons visité et analysé le cas de cinq écoles indigènes náhuas de la Sierra Norte, dans l’état de Puebla. La conception et la réalisation ont impliqué des considérations épistémologiques d’un type qualitatif, comme la participation des sujets par le biais de l’incorporation de leur voix, de leurs perceptions et apports, pour l’analyse ultérieure des textes et la composition des conclusions finales. Cette recherche tente de se positionner en pourvoyeuse de témoignages et de sens intersubjectifs construits sur la base de données empiriques, ensuite articulées avec les perceptions de celui qui analyse. Elle constitue une recherche féministe dans le sens où elle englobe et analyse l’implication du genre féminin à d’autres facteurs sociaux qui permettent d’expliquer la situation des sujets avec qui ces femmes interagissent. Il en va également de même pour les groupes sociaux qui vivent dans la périphérie comme la majorité d’entre elles, c’est-à-dire dans la marginalité et la subalternité; la présence masculine, quant à elle, est pleinement documentée. L’un des buts de cette recherche féministe est d’expliquer la relation entre exclusion et inégalité. L’exclusion semble s’étendre dans l’esprit de l’époque. Les processus de globalisation se caractérisent en effet par le fait d’approfondir et de multiplier les formes variées d’exclusion des majorités en faveur de l’hégémonie – politique, économique et culturelle – étendant son voile qui rend invisible toute diversité. Dans n’importe laquelle de ces modalités, le fait d’être différent amène à être recalé dans les marges, c’est-à-dire à vivre des formes spécifiques d’exclusion. À partir de ces idées, la thèse vise à caractériser les politiques éducatives comprises comme des processus politiques et idéologiques non neutres, en tant que phénomènes qui peuvent être considérés comme des mécanismes de classification et de construction des sujets: des professeurs, des indigènes, des étudiants… Et aussi, comme des codes de normes et valeurs qui articulent les principes organisant la société à travers des modèles qui conforment l’histoire et la culture de la société dans laquelle ils sont générés. La possibilité de combiner tous les niveaux d’appréciation du micro, du méso et du macro, de trouver et de documenter des processus nationaux et globaux de politiques publiques de la DGEI dans des espaces d’influence locaux et leurs effets dans la construction d’identités, constitue une des contributions principales de cette recherche. Considérer les politiques comme objet d’analyse permet d’examiner au moins trois dimensions : 1) Les perspectives idéologiques prédominantes dans les discours, 2) les pratiques des sujets destinataires de ces politiques, c’est-à-dire, – ceux qui assimilent les discours –, et 3) les systèmes alternatifs de résistance ou de complémentarité qui émergent localement (comme l’acceptation, la modification ou le rejet des discours). Partir de la conception selon laquelle la participation aux politiques (même au niveau des récepteurs de celles-ci) les rend publiques et permet, par ce seul fait, d’en dépasser le caractère gouvernemental. Une politique est réalisée uniquement quand le destinataire de celle-ci agit comme un élément réactif. En conséquence, il est fondamental que la recherche collecte les témoignages des sujets participants, c’est-à-dire des autorités éducatives et communautaires, des enseignants, des étudiants, des pères et des mères de famille, tout comme des acteurs sociaux. De cette manière, la politique peut être cohérente avec sa nature publique et répondre aux nécessités perçues localement, dépassant ainsi les buts abstraits des institutions. Les acteurs de l’éducation au niveau local et de l’État deviennent alors également des auteurs latents des politiques publiques.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La machine à vecteurs de support à une classe est un algorithme non-supervisé qui est capable d’apprendre une fonction de décision à partir de données d’une seule classe pour la détection d’anomalie. Avec les données d’entraînement d’une seule classe, elle peut identifier si une nouvelle donnée est similaire à l’ensemble d’entraînement. Dans ce mémoire, nous nous intéressons à la reconnaissance de forme de dynamique de frappe par la machine à vecteurs de support à une classe, pour l’authentification d’étudiants dans un système d’évaluation sommative à distance à l’Université Laval. Comme chaque étudiant à l’Université Laval possède un identifiant court, unique qu’il utilise pour tout accès sécurisé aux ressources informatiques, nous avons choisi cette chaîne de caractères comme support à la saisie de dynamique de frappe d’utilisateur pour construire notre propre base de données. Après avoir entraîné un modèle pour chaque étudiant avec ses données de dynamique de frappe, on veut pouvoir l’identifier et éventuellement détecter des imposteurs. Trois méthodes pour la classification ont été testées et discutées. Ainsi, nous avons pu constater les faiblesses de chaque méthode dans ce système. L’évaluation des taux de reconnaissance a permis de mettre en évidence leur dépendance au nombre de signatures ainsi qu’au nombre de caractères utilisés pour construire les signatures. Enfin, nous avons montré qu’il existe des corrélations entre le taux de reconnaissance et la dispersion dans les distributions des caractéristiques des signatures de dynamique de frappe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.