727 resultados para Algorithme génétiques hybrides générationnels
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Cette thèse présente l’analyse des propos de trois générations de femmes réfugiées au Québec sur les manières dont ces femmes s’exposent, s’identifient et s’approprient le discours des médias pour ensuite en discuter entre elles. L’analyse permet de cerner certaines de leurs pratiques d’insertion et d’adaptation à un nouveau milieu de vie. L’immigration favorise de plus en plus l’éclosion des « cultures de la mixité », lesquelles représentent un enjeu incontournable en matière d’intégration. Quant aux médias, ils sont une source incontournable d’accès à l’information et à la culture. Le développement des techniques de transmission telles les réseaux câblés, le satellite de diffusion directe, Internet et le numérique permet au consommateur de médias, quel que soit son origine, de s’approprier de façon personnelle les produits culturels qui en retour déterminent la participation à la vie active dans la société hôte. Cette nouvelle intégration culturelle se transmet-elle aisément au sein des générations d’immigrantes? Cette thèse découle aussi d’un projet plus vaste sur les transmissions intergénérationnelles des savoirs, des pratiques et de l’entraide entre trois générations de femmes réfugiées au Québec (Vatz Laroussi, Guilbert & al. CRSH, 2009-2012). Étudier les transmissions de savoirs au sein des familles immigrantes, c’est reconnaitre avec les auteurs contemporains l’importance de la transmission et de la circulation des histoires personnelles s’inscrivant dans une histoire familiale et sociale de l’époque a méthodologie adoptée s’appuie sur les entretiens semi-directifs, le commentaire réflexif ainsi que l’analyse de contenu. La démarche méthodologique a été empruntée au projet principal. Les entretiens réalisés auprès des familles de réfugiés établis dans plusieurs régions du Québec (Sherbrooke, Joliette, Québec et Montréal) ont été réalisés par une équipe pluridisciplinaire, multiculturelle et féminine. L’originalité de cette recherche se trouve entre autres dans la collecte d’information qui s’est faite auprès de trios générationnels (grand-mère, mère et fille). Chaque membre du trio a été rencontré de façon individuelle et par la suite, le trio s’est formé pour une dernière entrevue de groupe. Ainsi, une analyse thématique des discours des répondants a été réalisée. Cette analyse a permis de mettre en perspective divers éléments proéminents relatifs à la relation entre les médias et chaque membre du trio générationnel. Il a été constaté que les médias sont appréhendés différemment par chaque membre du trio, que des médias comme la télévision et l’Internet sont les plus prisés par les jeunes et ils servent à la fois de fenêtre sur le pays d’accueil, d’ouverture sur le monde et d’expression de soi-même face aux frustrations vécues au Québec. En dernier lieu, une analyse de la question de la transmission intergénérationnelle au prisme des médias entre les trois générations de femme réfugiée a été faite. On constate que dans les trios, la transmission n’est pas unidirectionnelle. Elle va dans tous les sens. Sortant des sentiers battus elle devient un espace de création.
Resumo:
L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.
Resumo:
Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.
Resumo:
Pour ce projet, nous avons développé une plateforme pour l’analyse pangénomique de la méthylation de l’ADN chez le bovin qui est compatible avec des échantillons de petites tailles. Cet outil est utilisé pour étudier les caractéristiques génétiques et épigénétiques (méthylation de l’ADN) des gamètes soumis aux procédures de procréation médicalement assisitée et des embryons précoces. Dans un premier temps, une plateforme d’analyse de biopuces spécifiques pour l’étude de la méthylation de l’ADN chez l’espèce bovine a été développée. Cette plateforme a ensuite été optimisée pour produire des analyses pangénomiques de méthylation de l’ADN fiables et reproductibles à partir d’échantillons de très petites tailles telle que les embryons précoces (≥ 10 ng d’ADN a été utilisé, ce qui correspond à 10 blastocystes en expansion). En outre, cet outil a permis d’évaluer de façon simultanée la méthylation de l’ADN et le transcriptome dans le même échantillon, fournissant ainsi une image complète des profils génétiques et épigénétiques (méthylation de l’ADN). Comme preuve de concept, les profils comparatifs de méthylation de l’ADN spermatique et de blastocystes bovins ont été analysés au niveau de l’ensemble du génome. Dans un deuxième temps, grâce à cette plateforme, les profils globaux de méthylation de l’ADN de taureaux jumeaux monozygotes (MZ) ont été analysés. Malgré qu’ils sont génétiquement identiques, les taureaux jumeaux MZ ont des descendants avec des performances différentes. Par conséquent, l’hypothèse que le profil de méthylation de l’ADN spermatique de taureaux jumeaux MZ est différent a été émise. Dans notre étude, des différences significatives entre les jumeaux MZ au niveau des caractéristiques de la semence ainsi que de la méthylation de l’ADN ont été trouvées, chacune pouvant contribuer à l’obtention de performances divergentes incongrues des filles engendrées par ces jumeaux MZ. Dans la troisième partie de ce projet, la même plateforme a été utilisée pour découvrir les impacts d’une supplémentation à forte concentration en donneur de méthyle universel sur les embryons précoces bovins. La supplémentation avec de grandes quantités d’acide folique (AF) a été largement utilisée et recommandée chez les femmes enceintes pour sa capacité bien établie à prévenir les malformations du tube neural chez les enfants. Cependant, plus récemment, plusieurs études ont rapporté des effets indésirables de l’AF utilisé à des concentrations élevées, non seulement sur le développement de l’embryon, mais aussi chez les adultes. Au niveau cellulaire, l’AF entre dans le métabolisme monocarboné, la seule voie de production de S-adénosyl méthionine (SAM), un donneur universel de groupements méthyles pour une grande variété de biomolécules, y compris l’ADN. Par conséquent, pour résoudre cette controverse, une forte dose de SAM a été utilisée pour traiter des embryons produits in vitro chez le bovin. Ceci a non seulement permis d’influencer le phénotype des embryons précoces, mais aussi d’avoir un impact sur le transcriptome et le méthylome de l’ADN. En somme, le projet en cours a permis le développement d’une plateforme d’analyse de la méthylation de l’ADN à l’échelle du génome entier chez le bovin à coût raisonnable et facile à utiliser qui est compatible avec les embryons précoces. De plus, puisque c’est l’une des premières études de ce genre en biologie de la reproduction bovine, ce projet avait trois objectifs qui a donné plusieurs nouveaux résultats, incluant les profils comparatifs de méthylation de l’ADN au niveau : i) blastocystes versus spermatozoïdes ; ii) semence de taureaux jumeaux MZ et iii) embryons précoces traités à de fortes doses de SAM versus des embryons précoces non traités.
Resumo:
Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.
Resumo:
La transplantation de cellules souches hématopoïétiques (CSH) constitue une avenue thérapeutique potentiellement curative pour plusieurs cancers hématologiques comme la leucémie. L’utilisation d’une thérapie immunosuppressive pour prévenir la maladie du greffon contre l’hôte (GvHD) est un déterminant majeur du succès de la greffe. Malgré tout, cette complication survient chez 25 à 50% des transplantés et est une cause majeure de mortalité. L’optimisation du régime d’immunosuppression est un facteur facilement modifiable qui pourrait améliorer le pronostic des patients. Particulièrement, les polymorphismes du génome du donneur ou du receveur dans les voies pharmacogénomiques des immunosuppresseurs pourraient influencer l’exposition et l’action de ces médicaments, de même que le pronostic du patient. Le profilage de 20 pharmacogènes prioritaires chez des paires de donneurs-receveurs en greffe de CSH a permis d’identifier des variations génétiques liées au risque de la GvHD aiguë. Principalement, le statut génétique du receveur pour les protéines ABCC1 et ABCC2, impliquées dans le transport du méthotrexate (MTX), ainsi que des cibles moléculaires de ce médicament (ATIC et MTHFR) ont été associées au risque de GvHD aiguë. Similairement, le NFATc1, codant pour une cible moléculaire de la cyclosporine, augmentait lui aussi le risque de la maladie. Les porteurs de deux génotypes à risque et plus étaient particulièrement prédisposés à développer cette complication. Par surcroît, le statut génétique du donneur influençait également le pronostic du receveur après la greffe. Entre autres, des allèles protecteurs ont été identifiés dans les voies liées au transport (SLC19A1) et à l’action du MTX (DHFR). Inversement, NFATc2 a été associé à une augmentation du risque de GvHD aiguë. Afin de mieux comprendre les associations observées entre ces marqueurs génétiques et le risque de GvHD aiguë, une étude prospective innovante est en cours chez des greffés de CSH. Cette étude permettra d’étudier comment la génétique du patient ou du donneur peut influencer la pharmacocinétique et la pharmacodynamie des immunosuppresseurs, de même que leurs liens avec la GvHD aiguë. Ces paramètres sont quantifiés grâce à des approches analytiques que nous avons mises au point afin de répondre aux besoins spécifiques et uniques de cette étude. Les approches proposées dans cette thèse sont complémentaires aux méthodes classiques de suivi des immunosuppresseurs et pourraient aider à optimiser la pharmacothérapie du patient. Une meilleure identification des patients à haut risque de GvHD aiguë avant la greffe, basée sur des marqueurs pharmacogénomiques identitaires, pourrait guider le choix de la prophylaxie immunosuppressive, et ainsi améliorer l’issue clinique de la greffe.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Résumé : Le transistor monoélectronique (SET) est un dispositif nanoélectronique très attractif à cause de son ultra-basse consommation d’énergie et sa forte densité d’intégration, mais il n’a pas les capacités suffisantes pour pouvoir remplacer complètement la technologie CMOS. Cependant, la combinaison de la technologie SET avec celle du CMOS est une voie intéressante puisqu’elle permet de profiter des forces de chacune, afin d’obtenir des circuits avec des fonctionnalités additionnelles et uniques. Cette thèse porte sur l’intégration 3D monolithique de nanodispositifs dans le back-end-of-line (BEOL) d’une puce CMOS. Cette approche permet d’obtenir des circuits hybrides et de donner une valeur ajoutée aux puces CMOS actuelles sans altérer le procédé de fabrication du niveau des transistors MOS. L’étude se base sur le procédé nanodamascène classique développé à l’UdeS qui a permis la fabrication de dispositifs nanoélectroniques sur un substrat de SiO2. Ce document présente les travaux réalisés sur l’optimisation du procédé de fabrication nanodamascène, afin de le rendre compatible avec le BEOL de circuits CMOS. Des procédés de gravure plasma adaptés à la fabrication de nanostructures métalliques et diélectriques sont ainsi développés. Le nouveau procédé nanodamascène inverse a permis de fabriquer des jonctions MIM et des SET métalliques sur une couche de SiO2. Les caractérisations électriques de MIM et de SET formés avec des jonctions TiN/Al2O3 ont permis de démontrer la présence de pièges dans les jonctions et la fonctionnalité d’un SET à basse température (1,5 K). Le transfert de ce procédé sur CMOS et le procédé d’interconnexions verticales sont aussi développés par la suite. Finalement, un circuit 3D composé d’un nanofil de titane connecté verticalement à un transistor MOS est réalisé et caractérisé avec succès. Les résultats obtenus lors de cette thèse permettent de valider la possibilité de co-intégrer verticalement des dispositifs nanoélectroniques avec une technologie CMOS, en utilisant un procédé de fabrication compatible.
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
Cette thèse se penche sur la rationalité sécuritaire qui organise les villes de Douala et Yaoundé. En effet, l’insécurité urbaine devient une question très préoccupante, encore plus dans les villes des pays du Sud notamment les villes camerounaises où la recrudescence de la criminalité et de la violence ont donné lieu à des initiatives de sécurisation de la part de l’État et de la population. Sur le plan de la théorie, plusieurs approches nous permettent de nous projeter dans l’environnement sécuritaire des villes à l’étude. Nous considérons les villes de Douala et Yaoundé comme des lieux de production culturelle où se construisent à la faveur des migrations, à partir de diverses cultures et de comportements issus des villages d’origine, des formes d’identités hybrides et des territoires urbains diversifiés. Cela donne donc à réfléchir sur les modes de gouvernance locale, à l’échelle des quartiers, dans le but de comprendre les modalités d’encadrement de cette dynamique culturelle urbaine. Dans le même ordre d’idées, la gouvernance locale fait appel aux acteurs, dans leurs rôles et leurs logiques. Ces logiques s’observent dans leurs dimensions cognitives et leurs rapports avec l’espace. Les dimensions cognitives évoquent les perceptions, le vécu et les représentations subjectives qui sont associées à l’insécurité. Ainsi, le sentiment d’insécurité, la peur, la marginalisation, la violence et la criminalisation sont des phénomènes qui laissent entrevoir des populations défavorisées, victimes d’insécurité. C’est à côté de ces dernières que se manifestent les logiques d’acteurs associées à l’espace, qui ouvrent l’observation sur l’informalité et la ségrégation non seulement comme instruments de contrôle de l’espace urbain, mais également comme cadres de production d’espaces sécurisés. L’informalité et la ségrégation sont aussi favorables au développement des identités, à la construction d’utopies, ces visions mélioratives qui motivent et transforment les acteurs. Ce sont ces logiques d’acteurs dans leurs rapports avec l’espace qui justifient les initiatives de sécurisation. Finalement, c’est dans cette dynamique de transformation que les acteurs entrent en processus de subjectivation pour se produire comme sujets. Sur le plan méthodologique, cette thèse repose sur une ethnographie critique et comparative de la sécurité et sur l’approche de l’action sociale, qui invite à s’attarder aux interactions sociales, pour rendre compte de la rationalité sécuritaire. Étudier la sécurité requiert de s’attarder à l’échelle des quartiers, objets principaux de la sécurisation et espaces d’expression de l’informalité. Les quartiers sont encadrés par les chefferies urbaines, dont les systèmes de gestion constituent la gouvernance locale. Face à la question de la sécurité, cette gouvernance se prononce entre autres en fonction de son identité, de sa culture et de ses représentations. Elle côtoie les logiques étatiques dont les techniques et les stratégies d’organisation matérialisent les politiques de sécurité. Douala et Yaoundé présentent des approches populaires de sécurisation qui diffèrent sur le plan de l’organisation locale des quartiers et du tempérament populaire. Elles se rapprochent par les logiques d’acteurs et la motivation que ces derniers ont à se produire en sujets. La recherche a permis de constater qu’une forme de rationalité régit l’ensemble des dynamiques et des stratégies de production de la sécurité qui ont cours à Douala et Yaoundé. Cette rationalité passe par une pluralité de logiques de sécurité, elles-mêmes tributaires de nombreux phénomènes qui contribuent à la production de l’insécurité, mais aussi à celle de la sécurité. En effet, les migrations de la campagne vers la ville, l’informalité, la ségrégation et la présence de gangs locaux sont des réalités urbaines qui donnent une forme particulière à l’insécurité, mais invitent également à une réadaptation des techniques et des groupes d’acteurs impliqués dans la production de la sécurité. Il ressort que la rationalité sécuritaire, cette intelligence de gouvernement qui s’organise dans les dispositifs de l’offre publique de sécurité, suscite aussi dans les procédés des acteurs populaires, des techniques d’identification aux forces de l’ordre. Dans son processus, elle aboutit à la production de sujets sécurisés et de sécurité. En saisissant les productions humaines comme des activités innovantes, nous comprenons que la sécurisation procède par rapprochement entre les forces de l’ordre et les populations, par la mise en oeuvre de mécanismes mis en place pour répondre à la menace mais aussi par la « confiscation de la sécurité » pour les besoins d’une élite. Ensuite, elle représente une instance de subjectivation où l’innovation se matérialise et où les acteurs se réalisent, créent la sécurité et recréent la ville. Finalement, cette thèse révèle une pluralité de logiques de sécurité construites autour d’une même rationalité sécuritaire.
Resumo:
L'internationalisation des échanges commerciaux ainsi que la globalisation des marchés font partie intégrante du monde économique d'aujourd'hui. Ces tendances ont pour effet d'intensifier la création de produits hybrides à l'échelle mondiale. La conception de produits ayant plus d'une origine est chose courante dans les trois pays ayant apposé leur signature sur l'Accord de Libre-Échange Nord-Américain (ALENA). Ce travail de recherche établit une distinction entre le pays de conception et le pays d'assemblage d'un produit. L'objet de cette étude a pour but d'étudier les impacts relatifs de ces deux concepts sur les évaluations des consommateurs américains et canadiens. Les évaluations concernent la qualité perçue et la valeur d'achat de produits de consommation courante. L'objectif principal de l'étude porte sur l'analyse des différences de perception entre deux pays: le Canada et les États-Unis. Les évaluations des consommateurs américains et canadiens sont mesurées à l'aide de profils d'analyse conjointe présentés sous forme de publicités. Trois catégories de produits sont évaluées. Ces dernières présentent des niveaux de risque et d'implication d'achat différents. Chacun des produits est caractérisé par trois niveaux hiérarchiques sur cinq attributs: le pays de conception, le pays d'assemblage, la marque, le prix et la garantie. Les résultats montrent que les consommateurs américains et canadiens établissent une distinction entre le pays de conception et le pays d'assemblage. Malgré le rôle modérateur des variables: marque, prix et garantie; le pays de conception et le pays d'assemblage demeurent dans la plupart des cas les indices informationnels les plus importants. Les résultats indiquent également que le nationalisme américain est sensiblement plus prononcé que le nationalisme canadien. Enfin, les américains sont en général plus critiques dans leurs évaluations et également plus sensibles aux variations de prix que leurs voisins du nord. Des implications managériales sont discutées dans le contexte de L'ALENA.
Resumo:
Dans un contexte économique où globalisation des marchés et mondialisation des échanges commerciaux sont les mots d'ordre, nous assistons à une prolifération de produits hybrides ayant plus d'une origine nationale. Le made-in d'un produit n'a désormais plus de sens si on ne le scinde en deux concepts : le pays de conception où est "pensé" et conçu le produit et le pays d'assemblage où a lieu la fabrication physique du produit. Plusieurs recherches sur le made-in ont démontré que le pays de conception et le pays d'assemblage avaient effectivement une influence sur les évaluations de la qualité et de la valeur d'achat des produits par les consommateurs. L'objet de cette étude est de savoir si l'origine nationale a une influence sur un autre intervenant dans le processus d'achat : le vendeur et si cette influence est comparable à celle déjà observée chez le consommateur. 194 vendeurs d’appareils électroniques des villes de Montréal, Québec et Sherbrooke ont évalué des pays d'origine de niveaux de développement différents ainsi que la qualité et la valeur d'achat de trois catégories de produits : magnétoscopes, chaussures et automobiles. Chaque produit était caractérisé par cinq attributs : le pays de conception, le pays d'assemblage, la marque, la garantie et le prix. Les résultats obtenus ont été comparés à ceux issus d'une recherche antérieure sur l'influence du pays d'origine sur un échantillon de consommateurs (de Bussac, 1992). Cette étude comparative démontre notamment que les vendeurs, comme les consommateurs, associent des stéréotypes aux pays d'origine, stéréotypes qui influencent leur évaluation de la qualité et de la valeur d'achat des produits. Par ailleurs, la majorité des vendeurs interrogés pense que les consommateurs qu'ils rencontrent ne font pas de distinction entre pays de conception et pays d'assemblage. Il semble aussi que le pays d'origine est l'attribut du produit que les vendeurs utilisent le moins dans leur argumentation de vente.
Resumo:
Les leucémies aigues sont la conséquence d’une prolifération clonale et maligne des cellules hématopoïétiques. Elles surviennent suite à un évènement oncogénique qui se produit dans une cellule souche hématopoïétique (CSH) ou progénitrice. Cela lui confère une certaine instabilité qui engendre l’accumulation d’autres évènements génétiques et/ou épigénétiques responsables du développement clinique de la maladie. Les leucémies MLL représentent environ 10% des leucémies aigues et aujourd’hui, plus de 70 gènes de fusion ont été caractérisés. Les sangs de cordon sont une source importante de CSH et progénitrices. La purification de ces cellules et leur transformation en cellules leucémiques à l’aide de gènes de fusion MLL nous permettent de générer des leucémies aigues humaines dans des souris immunodéficientes NSG et ainsi étudier le potentiel leucémique de différents gènes de fusion MLL. Dans un premier temps, 4 gènes de fusion MLL ont été étudiés : MLL-AF9, MLL-AF4, MLL-ENL et MLL-ELL. In vitro, nous sommes capables de transformer des CSH en cellules leucémiques capables de proliférer rapidement. Les résultats in vivo nous montrent qu’il est possible de générer des leucémies avec les oncogènes MLL-AF9 et MLL-ENL. Pour les fusions MLL-ELL et MLL-AF4, bien que quelques leucémies ont pu être obtenues, plusieurs problèmes techniques nous empêchent aujourd’hui de disposer d’un modèle adéquat permettant l’étude complète de ces oncogènes. Dans un second temps, les leucémies aigues MLL-AF9 ont été étudiées dans un modèle contrôlé où les cellules souches proviennent d’un donneur unique. Grâce à ce modèle, nous avons pu démontrer que l’oncogène MLL-AF9 est suffisant pour induire le développement de la maladie. En effet aucune nouvelle mutation n’a pu être identifiée au cours du développement de la leucémie. Parmi les leucémies myéloïdes aigues (LMA) MLL-AF9 issues de ce modèle, certains gènes non mutés, dont RET, ont été identifiés comme étant de potentiels biomarqueurs de ce sous-groupe de leucémie.
Resumo:
La Formule SAE (Society of Automotive Engineers) est une compétition étudiante consistant en la conception et la fabrication d’une voiture de course monoplace. De nombreux événements sont organisés à chaque année au cours desquels plusieurs universités rivalisent entre elles lors d’épreuves dynamiques et statiques. Celles-ci comprennent l’évaluation de la conception, l’évaluation des coûts de fabrication, l’accélération de la voiture, etc. Avec plus de 500 universités participantes et des événements annuels sur tous les continents, il s’agit de la plus importante compétition d’ingénierie étudiante au monde. L’équipe ULaval Racing a participé pendant plus de 20 ans aux compétitions annuelles réservées aux voitures à combustion. Afin de s’adapter à l’électrification des transports et aux nouvelles compétitions destinées aux voitures électriques, l’équipe a conçu et fabriqué une chaîne de traction électrique haute performance destinée à leur voiture 2015. L’approche traditionnelle employée pour concevoir une motorisation électrique consiste à imposer les performances désirées. Ces critères comprennent l’inclinaison maximale que la voiture doit pouvoir gravir, l’autonomie désirée ainsi qu’un profil de vitesse en fonction du temps, ou tout simplement un cycle routier. Cette approche n’est malheureusement pas appropriée pour la conception d’une traction électrique pour une voiture de type Formule SAE. Ce véhicule n’étant pas destiné à la conduite urbaine ou à la conduite sur autoroute, les cycles routiers existants ne sont pas représentatifs des conditions d’opération du bolide à concevoir. Ainsi, la réalisation de ce projet a nécessité l’identification du cycle d’opération routier sur lequel le véhicule doit opérer. Il sert de point de départ à la conception de la chaîne de traction composée des moteurs, de la batterie ainsi que des onduleurs de tension. L’utilisation d’une méthode de dimensionnement du système basée sur un algorithme d’optimisation génétique, suivie d’une optimisation locale couplée à une analyse par éléments-finis a permis l’obtention d’une solution optimale pour les circuits de type Formule SAE. La chaîne de traction conçue a été fabriquée et intégrée dans un prototype de voiture de l’équipe ULaval Racing lors de la saison 2015 afin de participer à diverses compétitions de voitures électriques.