4 resultados para Flexibilité

em Université Laval Mémoires et thèses électroniques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’heure des migrations contemporaines liées au travail, la flexibilité spatiale des groupes tsiganes n’est plus considérée comme une « déviation » par rapport à la sédentarité, paradigme dominant pour penser l’espace. Le « nomadisme » tsigane dévoile aujourd’hui un visage nouveau : celui d’une mobilité de travail complexe qui produit, elle aussi, certaines formes d’ancrage spatial. Dans le champ des études tsiganes, ce sont surtout les diverses trajectoires et pratiques de déplacement des groupes « nomades » qui ont retenu l’attention des spécialistes. Dans cette thèse, nous préférons nous appuyer sur la phénoménologie des formes tsiganes d’ancrage spatial. À partir d’une approche ethnologique directe des 15 communautés roumaines-bayashes de la région des Carpates du Nord, dans l’Ukraine occidentale et au Sud-Est de la Slovaquie, nous interrogeons plus particulièrement le rapport qui existe entre le tabor — terme émique pour désigner les camps tsiganes est-européens — et le concept de territoire. Notre analyse porte notamment sur le tabor en tant que forme de localisation temporaire, de découpage social et culturel de l’espace et ce, dans une perspective qui tient compte des changements que les processus de sédentarisation communiste et postcommuniste lui ont fait subir. De nouvelles logiques spatiales sont mises en oeuvre, c’est pourquoi certains concepts opératoires — plus adaptés aux réalités contemporaines du tabor — sont discutés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les biofilms bactériens sont composés d’organismes unicellulaires vivants au sein d’une matrice protectrice, formée de macromolécules naturelles. Des biofilms non désirés peuvent avoir un certain nombre de conséquences néfastes, par exemple la diminution du transfert de chaleur dans les échangeurs de chaleurs, l’obstruction de membranes poreuses, la contamination des surfaces coques de navires, etc. Par ailleurs, les bactéries pathogènes qui prolifèrent dans un biofilm posent également un danger pour la santé s’ils croissent sur des surfaces médicales synthétiques comme des implants biomédicaux, cathéters ou des lentilles de vue. De plus, la croissance sur le tissu naturel par certaines souches des bactéries peut être fatale, comme Pseudomonas aeruginosa dans les poumons. Cependant, la présence de biofilms reste difficile à traiter, car les bactéries sont protégées par une matrice extracellulaire. Pour tenter de remédier à ces problèmes, nous proposons de développer une surface antisalissure (antifouling) qui libère sur demande des agents antimicrobiens. La proximité et la disposition du système de relargage placé sous le biofilm, assureront une utilisation plus efficace des molécules antimicrobiennes et minimiseront les effets secondaires de ces dernières. Pour ce faire, nous envisageons l’utilisation d’une couche de particules de silice mésoporeuses comme agents de livraison d’agents antimicrobiens. Les nanoparticules de silice mésoporeuses (MSNs) ont démontré un fort potentiel pour la livraison ciblée d’agents thérapeutiques et bioactifs. Leur utilisation en nano médecine découle de leurs propriétés de porosité intéressantes, de la taille et de la forme ajustable de ces particules, de la chimie de leur surface et leur biocompatibilité. Ces propriétés offrent une flexibilité pour diverses applications. De plus, il est possible de les charger avec différentes molécules ou biomolécules (de tailles variées, allant de l’ibuprofène à l’ARN) et d’exercer un contrôle précis des paramètres d’adsorption et des cinétiques de relargage (désorption). Mots Clés : biofilms, nanoparticules de silice mésoporeuses, microfluidique, surface antisalissure.