29 resultados para Algorithme génétique

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les changements environnementaux actuels entrainent des modifications importantes dans les pressions de sélection qui agissent sur les populations naturelles. Cependant, la capacité de réponse des populations à ces modifications et l’importance relative des différents mécanismes comme la plasticité phénotypique et les changements de la composition génétique des populations restent encore trop peu connus. L’objectif général de ma thèse était donc d’évaluer les rôles de la plasticité phénotypique et de la variation génétique sur le potentiel évolutif en population naturelle. Pour ce faire, j’ai utilisé comme modèle d’étude l’Hirondelle bicolore (Tachycineta bicolor), un passereau migrateur qui est suivi dans le Sud du Québec depuis 2004 dans un environnement hétérogène. Dans un premier temps (chapitre 2), j’ai évalué les déterminants environnementaux de la date de ponte et évalué leurs effets à des niveaux individuels et populationnels de plasticité phénotypique. Comme observé chez de nombreuses espèces aviaires, la température avait un effet important sur la synchronisation de la ponte, similaire au niveau individuel et populationnel, avec les dates de ponte plus hâtive lorsque les températures étaient plus chaudes. Par contre, ces relations semblaient contraintes par la densité locale d’hirondelles, considérée dans ce système d’étude comme un indice de la qualité de l’environnement. Plus précisément, les réponses plastiques à la température étaient moins prononcées à faible densité, c’est-à-dire dans les habitats plus contraignants. Ces résultats suggèrent donc que malgré la présence de plasticité phénotypique chez une espèce donnée, son efficacité pour pallier les changements climatiques peut être inégale entre les populations. Dans un deuxième temps (chapitre 3), je me suis intéressée à 4 gènes candidats liés à la phénologie (CLOCK, NPAS2, ADCYAP1 et CREB1) montrant de la variation de type courtes répétitions en tandem, et à leur relation avec deux traits phénologiques, la date de ponte et le temps d’incubation. Ces analyses ont montré plusieurs relations entre la variation observée à ces gènes et celle des traits phénologiques étudiés, dans la plupart des cas en interaction avec des variables environnementales (densité locale, latitude ou température printanière). Par exemple, les femelles avec en moyenne des allèles plus courts au gène CLOCK pondaient plus tôt que celles avec des allèles plus longs, une relation plus marquée à densité locale élevée. Les différents résultats suggèrent l’importance que peuvent prendre les interactions génotype-environnement, qui sont rarement prises en compte dans les études de gènes candidats, et qui pourraient expliquer une partie des résultats discordants entre les celles-ci. Dans un troisième temps (chapitre 4), j’ai vérifié la faisabilité d’une étude en génétique quantitative avec les données récoltées dans le système d’étude utilisée, caractérisé par un fort taux de reproduction hors couple et un faible recrutement des oisillons. Plus précisément, j’ai testé à l’aide de données empiriques et simulées la précision et l’exactitude des estimations d’héritabilité et de corrélations génétiques pour trois types de traits, morphologiques, reproducteurs et d’oisillons. Les résultats suggéraient un manque de précision important pour les traits morphologiques et reproducteurs, de même que des biais considérables lors de l’utilisation du pédigrée social plutôt que du pédigrée génétique. Ces analyses révèlent entre autres l’utilité des simulations pour tester adéquatement la faisabilité d’une étude en génétique quantitative sur une population donnée. Dans une dernière étude (chapitre 5), j’ai documenté les effets de l’hétérogénéité environnementale et de l’utilisation de différentes approches de génétique quantitative sur les prédictions de réponses évolutives en population naturelle. Plus particulièrement, cette étude s’est concentrée sur trois traits morphologiques (masse, longueur de l’aile et du tarse) mesurés à différents moments au cours du développement des oisillons. Les différentes analyses ont montré une sélection plus forte à faible densité locale pour la masse à 12 jours ainsi que des variations dans les composantes de variances phénotypiques selon la qualité de l’environnement (densité locale faible ou élevée) pour la plupart des combinaisons trait-âge étudiées. Il en résultait une tendance à des réponses évolutives prédites plus grandes à faible densité locale. Par contre, les prédictions obtenues avec l’équation du reproducteur et le second théorème de la sélection différaient fréquemment, et contrastaient grandement avec les tendances phénotypiques observées. En somme, les résultats de ma thèse suggèrent que les possibilités d’ajustement aux changements environnementaux par la plasticité phénotypique et d’adaptation par des changements génétiques entre les générations peuvent varier selon l’environnement expérimenté par une population. Mes recherches contribuent à une meilleure compréhension des facteurs et mécanismes influençant la persistance à long terme des populations naturelles face aux modifications dans les pressions de sélection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Chez la levure Saccharomyces cerevisiae, la régulation de la longueur des télomères témoigne de la compensation entre mécanismes d'érosion (exonucléases, réplication semi-conservative et résection), facteurs d’élongation (la télomérase, transcriptase inverse à l'action retrouvée dans 90% des cancers humains) et actions de diverses protéines de régulation télomérique spécifiques, conférant aux télomères leur caractère de « capuchon » protégeant les extrémités des chromosomes eucaryotes. Afin de savoir si les gènes impossibles à déléter, car essentiels à la survie cellulaire, jouent aussi un rôle sur l’homéostasie télomérique, j'ai réalisé un criblage génétique utilisant des mutants tet-off de la levure pour lesquels la sous-expression considérable d'un gène essentiel a été induite de façon conditionnelle. Ceci permet d’étudier les effets qui en résultent sur l’homéostasie des télomères. Au total, mon travail a traité plus de 662 gènes essentiels pour lesquels j'ai analysé le phénotype de longueur des télomères de manière qualitative par comparaison des télomères de souches mutées par rapport à ceux de souches de type sauvage. Puis, grâce à l’amélioration technique que j'ai mise au point, la quantification de la taille des répétitions télomériques de 300 de ces souches a déjà pu être précisément analysée. Il est notable que tous les gènes essentiels étudiés ici ont des effets très différents qui résultent en des chromosomes possédant des télomères de longueur très inégale. Pour près de 40% des mutants analysés, les tailles de télomères sont apparues critiquement différentes de celles normalement présentées par la levure, beaucoup de ces gènes essentiels étant impliqués dans des mécanismes affectant le cycle cellulaire, la réparation, etc. La majorité des gènes criblés apporte un important complément d’information dans une littérature presque inexistante sur les effets de gènes essentiels de la levure au niveau de la biologie des télomères. C’est le cas des mutations de YHR122W (montrant des télomères long) et YOR262W (télomères courts), deux gènes qui sont apparus d'après mes résultats nécessaires au maintien de l'homéostasie télomérique (prenant place dans un grand ensemble de gènes que j’ai dénommé gènes ETL pour Essential for Telomere Length Maintenance).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’examen clinique est un aspect primordial du rôle de l’infirmière et de l’infirmier. Toutes interventions découlent de cette évaluation. Afin de bien déterminer les interventions appropriées, les infirmières et infirmiers doivent également développer une pensée critique. Ces deux concepts sont interdépendants et doivent être intégrés dans l’enseignement de la pratique infirmière. L’expérience de la chercheuse et différentes études ont révélées que enseignement de l’examen clinique et de la pensée critique est un défi quotidien pour les enseignantes et enseignants aux collégial. Beaucoup de notions portant sur l’examen physique sont enseignées mais très peu sont utilisées dans les milieux de stage. Afin d’intégrer le processus d’évaluation clinique et de pensée critique chez les stagiaires, une activité d’évaluation clinique consistant à évaluer des patientes et patients dans une clinique école a été instaurée. Après deux sessions d’expérimentation, il a été constaté que les stagiaires présentaient plusieurs lacunes au niveau de l’examen clinique et de la pensée critique. Suite à la lecture d’études concluantes sur l’utilisation d’algorithmes afin de guider des étudiantes et étudiants, un algorithme de référence en examen clinique (AREC) a été élaboré afin d’aider les stagiaires à effectuer un examen clinique en utilisant une pensée critique. L’AREC a été expérimenté auprès de stagiaires de cinquième session en soins infirmiers au collégial dans le cadre du cours en soins ambulatoires. Les stagiaires pouvaient se référer à l’AREC lors de l’examen clinique afin d’effectuer une évaluation plus précise et complète. De plus, l’utilisation de l’AREC devait permettre aux stagiaires de se questionner dans le processus et d’améliorer leur pensée critique. L’expérimentation auprès de 18 stagiaires ne permet pas de généraliser les résultats mais des pistes intéressantes en sont ressorties. Il semble avoir une amélioration de l’examen clinique au niveau de la pertinence et de la structure mais les résultats restent tout de même faibles dans l’ensemble. Le médecin de la clinique abonde dans le même sens. Au niveau de la pensée critique, l’amélioration perceptible semble plus influencée par les questionnements spécifiques et réguliers de la chercheuse lors de l’expérimentation que par l’utilisation de l’AREC. De plus, les caractéristiques personnelles de chacun des stagiaires semblent influencer le niveau de pensée critique qu’ils démontrent. Par contre, les stagiaires semblent considérer que l’AREC a été favorable pour l’exécution de l’examen clinique ainsi que pour l’amélioration de la pensée critique. Ils semblent avoir apprécié son utilisation et suggèrent des pistes de solutions intéressantes pour son amélioration. Quelques recommandations pour l’enseignement émanent de cette expérimentation. L’enseignement de l’examen clinique avec l’AREC dès le début de la formation pourrait être plus efficace et permettre de structurer plus rapidement les stagiaires. En ce qui a trait à la pensée critique, l’utilisation de l’AREC à lui seul ne semble pas favorable au développement de la pensée critique. Par contre, l’enseignement du processus de pensée critique pourrait être fait à l’aide de l’AREC dès le début de formation afin de faire réaliser le type de raisonnement que nous nous attendons des stagiaires. De plus, les enseignantes et enseignants devraient recevoir une formation afin de savoir quelles questions poser pour favoriser le développement de la pensée critique chez les stagiaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vers la fin des années 1990 et au début des années 2000, l’idée que l’ARN puisse interagir directement avec de petits métabolites pour contrôler l’expression de certains gènes devient de plus en plus acceptée. Des recherches menées à cette époque ont permis la découverte de plusieurs structures d’ARN hautement conservées nommées riborégulateurs. La structure de ces ARN leur permet de reconnaître spécifiquement un ligand. La reconnaissance du ligand entraîne ensuite un changement de conformation dans l’ARN responsable du contrôle de l’expression génétique. Le but de cette thèse est d’étudier la structure et les changements de conformation du riborégulateur associé au gène add liant l’adénine chez Vibrio vulnificus. Ce riborégulateur étant relativement simple, les informations recueillies lors de cette étude pourront servir à comprendre le fonctionnement de riborégulateurs plus complexes. Dans l’introduction, la découverte des riborégulateurs sera décrite en plus des caractéristiques particulières et de l’importance de ces ARN. Par la suite, quelques exemples démontrant l’importance des structures d’ARN seront abordés. Ensuite, les techniques de fluorescence utilisées pour étudier les structures d’ARN au cours de cette thèse seront présentées. Enfin, les recherches effectuées sur les riborégulateurs adénine seront détaillées afin d’aider le lecteur à bien comprendre le type de riborégulateur au centre de cette thèse. Le chapitre 1 traite du repliement de l’aptamère suite à la liaison avec l’adénine. Dans ce chapitre, il est démontré que l’aptamère peut adopter trois conformations. Une modification de la séquence de l’aptamère de type sauvage a permis d’isoler ces trois conformations. Il a ensuite été possible d’identifier les caractéristiques propres à chacun des états. Le chapitre 2 s’intéresse à une région précise du riborégulateur adénine. Dans ce chapitre, la conformation du cœur de l’aptamère est étudiée plus en profondeur. Il y est possible de constater que le repliement du cœur de l’aptamère influence l’interaction boucle-boucle en présence de magnésium et de ligand. De plus, la présence de ligand, en concentration suffisante, permet le repliement du cœur et favorise le rapprochement des tiges P2 et P3 dans un aptamère muté pour empêcher la formation de l’interaction boucle-boucle. Il semble donc que le repliement du cœur de l’aptamère influence la structure globale de l’aptamère. Finalement, les travaux présentés dans les chapitres 1 et 2 seront mis en contexte avec la littérature scientifique disponible. Cette discussion tentera de réconcilier certaines observations contradictoires. Il sera ensuite question de l’impact que les travaux présentés dans cette thèse peuvent avoir dans le domaine de l’ARN. Enfin, quelques études à réaliser en continuité avec ces travaux seront proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’organisation sociale est un élément important dans la biologie d’une espèce. Dans le monde animal, il existe différents types d’organisation sociale. Certaines espèces affichent un comportement solitaire, tandis que d’autres sont grégaires. Lorsque la socialité est favorisée, une organisation sociale de type communautaire peut prendre forme, où les liens d’associations sont majoritairement entre les individus des mêmes communautés. Ces liens peuvent être modulés par des associations préférentielles, par des stratégies comportementales ou par un apparentement génétique. Cependant, l’organisation sociale est soumise à des changements avec la mortalité, les naissances, l’immigration et l’émigration des individus. Ces variables démographiques peuvent altérer les relations sociales et par le fait même l’organisation sociale. L’analyse des réseaux sociaux est utilisée pour représenter et analyser la structure sociale d’une population. Cette technique permet de quantifier la structure de communauté d’un réseau. En utilisant une base de données d’observations obtenues sur plusieurs années, mon projet de maitrise explore l’organisation sociale chez les femelles chamois (Rupicapra rupicapra) au Parc des Alpes Maritimes, Italie. La base de tous les comportements sociaux est l’association. L’interaction dyadique entre deux individus est la principale voie pour le transfert de l'information. En utilisant ces associations, j’ai reconstruit, sur une base annuelle, la structure sociale des femelles chamois. Une fois la structure sociale établie, j’ai discerné les différentes communautés présentes dans la population. J’ai ensuite effectué une analyse de stabilité des communautés et déterminé si la composition des communautés répondait à un apparentement génétique. Les chamois femelles ont une organisation sociale impliquant des communautés avec de multiples liens d’associations à l’intérieur, mais quelque peu dirigés à l’extérieur de ces communautés. Les relations sociales d’une femelle chamois sont généralement conservées d’une année à l’autre. De plus, ces communautés attestent d’une grande stabilité inter annuelle. Peu d’individus changent de communauté d’une année à l’autre. Le changement de communauté est associé avec un faible nombre de liens d’associations et également avec des groupes de faible taille. Les communautés détectées ne semblent pas être basées sur un apparentement génétique. Grâce à l’analyse des réseaux sociaux, mes travaux de maîtrise sont les premiers à quantifier statistiquement l’organisation sociale des femelles chamois. Grâce à l’exploration de l’organisation sociale de ces femelles chamois, nos résultats apporteront de nouvelles informations sur les ongulés alpins et permettront une gestion adéquate des populations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection de la biodiversité locale consiste en un enjeu que certaines municipalités au Québec commencent à prendre en compte dans leur gestion. Le suivi et l’évaluation de la biodiversité par des indicateurs sont importants pour favoriser une gestion efficace de la diversité biologique. L’utilisation d’indicateurs adéquats est essentielle pour assurer que les mesures obtenues présentent des informations relatives à l’état, aux pressions et aux réponses en lien avec la biodiversité. Jusqu’à présent, la majorité des indicateurs de biodiversité développés concernent plutôt l’échelle nationale. L’objectif de l’essai est d’évaluer la pertinence des indicateurs de biodiversité utilisés par les municipalités au Québec afin d’améliorer la conservation de la biodiversité à l’échelle locale. Des critères d’une série d’indicateurs de biodiversité pour les municipalités sont identifiés en se basant sur les caractéristiques des indicateurs et sur les indicateurs de biodiversité proposés dans divers ouvrages. Les indicateurs proposés par le gouvernement et ceux utilisés par des municipalités québécoises sont aussi ciblés. L’analyse comparative des indicateurs ciblés selon les critères identifiés permet de formuler des recommandations au gouvernement et aux municipalités de la province. L’utilisation d’indicateurs de biodiversité adéquats pour les municipalités est essentielle pour effectuer un meilleur suivi de la biodiversité locale. Le gouvernement et les municipalités devraient favoriser la sélection d’un nombre approprié d’indicateurs portant sur la biodiversité et sur les objectifs de gestion, et qui sont également adéquats à une échelle locale, faciles à comprendre, validés sur des bases scientifiques et pouvant être calculés par des données accessibles. Une série pertinente devrait aussi contenir des indicateurs d’état, de pressions et de réponses qui mesurent la diversité génétique, spécifique et écosystémique, ainsi que les différents services écologiques. De plus, les indicateurs devraient idéalement permettre de prendre en compte la capacité de support des écosystèmes. Afin d’aider le gouvernement et les municipalités à améliorer leurs indicateurs, une série qui respectent ces recommandations est proposée à titre d’exemple. Toutefois, le suivi de la biodiversité locale nécessite que les municipalités s’impliquent au niveau de la conservation et de la protection de la biodiversité. Il est donc recommandé au gouvernement d’assujettir les municipalités de la province à la Loi sur le développement durable et de les inclure directement dans les démarches gouvernementales en matière de biodiversité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Une définition opérationnelle de la dyslexie qui est adéquate et pertinente à l'éducation n'a pu être identifiée suite à une recension des écrits. Les études sur la dyslexie se retrouvent principalement dans trois champs: la neurologie, la neurolinguistique et la génétique. Les résultats de ces recherches cependant, se limitent au domaine médical et ont peu d'utilité pour une enseignante ou un enseignant. La classification de la dyslexie de surface et la dyslexie profonde est la plus appropriée lorsque la dyslexie est définie comme trouble de lecture dans le contexte de l'éducation. L'objectif de ce mémoire était de développer un cadre conceptuel théorique dans lequel les troubles de lecture chez les enfants dyslexiques sont dû à une difficulté en résolution de problèmes dans le traitement de l'information. La validation du cadre conceptuel a été exécutée à l'aide d'un expert en psychologie cognitive, un expert en dyslexie et une enseignante. La perspective de la résolution de problèmes provient du traitement de l'information en psychologie cognitive. Le cadre conceptuel s'adresse uniquement aux troubles de lectures qui sont manifestés par les enfants dyslexiques.||Abstract : An extensive literature review failed to uncover an adequate operational definition of dyslexia applicable to education. The predominant fields of research that have produced most of the studies on dyslexia are neurology, neurolinguistics and genetics. Their perspectives were shown to be more pertinent to medical experts than to teachers. The categorization of surface and deep dyslexia was shown to be the best description of dyslexia in an educational context. The purpose of the present thesis was to develop a theoretical conceptual framework which describes a link between dyslexia, a text-processing model and problem solving. This conceptual framework was validated by three experts specializing in a specific field (either cognitive psychology, dyslexia or teaching). The concept of problem solving was based on information-processing theories in cognitive psychology. This framework applies specifically to reading difficulties which are manifested by dyslexic children.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses recherches (Pyle, 1918; Graham, 1926; Sandiford et Kerr, 1926; Lesser, Fifer et Clark, 1965; Vernon, 1982; voir Chan et Vemon, 1988) ont montré que les immigrants chinois ont de meilleures performances en mathématiques qu'en lettres (langues et sciences humaines dans le système nord-américain), et que leurs performances en mathématiques sont également meilleures que celles des nord Américains non-chinois. La plupart de ces recherches ont essayé d'expliquer cette performance par l'existence d'une différence du rapport à l'environnement spatial chez des Chinois (Gwiazda, Birch et Held, 1981; in Pêcheux, 1990), par l'impact de l'apprentissage précoce des particularités propres à l'écriture et aux structures des langues asiatiques (Hatta, 1978 et 1981; Nomura, 1981; Akiyama, Takei et Saito, 1982; Chan et Vernon, 1988; Iwawaki et Vernon, 1988), ou bien par la génétique (Gesell,1934; voir Eggen et Kauchak, 1992). Pour notre part, nous croyons que la motivation par rapport à l'apprentissage privilégiée de certaines matières forme une cause importante de ces différences. Ainsi, la présente recherche a pour but d'examiner l'influence de certaines composantes de la motivation sur la performance et la réussite scolaire en mathématiques chez des enfants immigrants chinois. [...]