25 resultados para Traitement d’images
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Ce mémoire aborde le traitement de l'erreur à l'oral entre apprenants dans une classe de français langue seconde de l'Université de Sherbrooke (Québec). Dans les classes de français langue seconde de cette institution, les étudiants travaillent la plupart du temps en équipes du fait que l'approche communicative est utilisée comme modèle pédagogique. L'objectif général de cette recherche a été d'explorer, à partir du moment où une erreur est produite, les relations entre les types de rétroactions utilisées par les apprenants dans le but de corriger leurs collègues et les réponses suivant ces rétroactions. Principalement, cette étude sur le traitement de l'erreur à l'oral dans un contexte de travail en équipe a révélé que la correction faite par un pair ne passe pas inaperçue et qu'elle est fréquemment suivie par une réparation immédiate de l'énoncé fautif initial ou encore, d'une tentative de correction.
Resumo:
La présente étude, de type métalexicographique, s'insère dans une perspective de recherche visant à dresser le bilan de la pratique lexicographique réservée aux noms d'espèces naturelles dans les dictionnaires usuels du français. Elle porte sur le traitement définitoire de tous les noms de plantes herbacées répertoriés dans le Petit Robert (édition électronique 1996). Son objectif principal est de décrire très précisément la pratique définitoire en cause. Nous commençons par passer rapidement en revue les différents procédés définitoires illustrés par notre corpus, avant de procéder à l'analyse détaillée du procédé le plus exploité, celui de la définition par inclusion. Notre méthode d'analyse est basée sur la segmentation et l'examen comparatif des différentes composantes sémantiques et formelles présentes dans les définitions par inclusion de notre corpus. Elle permet non seulement de mieux connaître la pratique du Petit Robert , mais aussi d'en extraire un certain savoir-faire. Nous étudions quatre grandes catégories d'éléments descriptifs bien représentées dans notre corpus: les éléments de classification, les éléments de localisation, les éléments de valorisation ainsi que les éléments de morphologie en lien avec ces derniers. Nous donnons, de la métalangue utilisée et des principaux modèles de description exploités, un portrait relativement précis qui pourra alimenter la réflexion des lexicographes et autres linguistes qui s'intéressent à la description des noms d'espèces naturelles en général et des noms de plantes en particulier.
Resumo:
La tradition lexicographique de langue française opère, en théorie, une séparation stricte entre noms communs et noms propres. Or, dans les faits, cette séparation touche surtout les noms propres de lieux et de personnes. En effet, l'observation des articles du vocabulaire politique révèle un nombre important de noms propres d'une autre nature dans les pages de dictionnaires, comme des noms propres d'institutions, de partis politiques ou d'événements et de périodes historiques. Qui plus est, ces noms propres reçoivent souvent un traitement lexicographique comparable à celui des noms communs. Toutefois, ce traitement n'a pas encore fait l'objet d'une étude approfondie. Afin de faire la lumière sur le traitement lexicographique des noms propres du vocabulaire politique, nous avons procédé à une analyse de ces noms propres à travers quatre dictionnaires généraux de langue française : Le Nouveau Petit Robert 2007 (version électronique), Le Petit Larousse Illustré 2007 (version électronique), le Dictionnaire du français Plus - À l'intention des francophones d'Amérique (1988) et le Dictionnaire québécois d'aujourd'hui (1992). Nous avons d'abord mis sur pied une typologie des noms propres du vocabulaire politique susceptibles d'être définis dans les dictionnaires généraux de langue française; puis nous avons relevé ces noms propres dans les dictionnaires à l'étude. Il ressort de ce relevé que le nombre de noms propres du vocabulaire politique dans les dictionnaires est assez élevé pour nécessiter une caractérisation de la pratique lexicographique les entourant. En outre, la description du vocabulaire politique passe par une description de certains types de noms propres en plus des mots du lexique commun. Nous nous sommes penchée sur la manière dont sont présentés les noms propres dans les dictionnaires, pour conclure que leur intégration et leur identification n'obéissent pas à une méthode systématique.La majuscule initiale n'est pas systématiquement utilisée pour les noms propres de même type.La nomenclature des noms propres à inclure dans le dictionnaire de langue à été étudiée à travers l'exemple des noms de partis politiques.La méthode servant à dresser cette nomenclature devrait se baser sur l'observation d'un corpus (fréquence) et l'importance dans un système socioculturel de référence - pour les noms de partis politiques, les noms des partis représentés dans les instances officielles devraient être décrits dans les dictionnaires généraux. Nous avons ensuite analysé les catégories de noms propres les plus représentées dans notre corpus d'articles du vocabulaire politique (les noms propres d'événements et de périodes historiques, les noms de partis politiques, dont les sigles, et les noms propres d'institutions). À la suite de cette analyse, nous proposons une liste d'éléments que le traitement lexicographique devrait inclure afin de permettre une circonscription efficace du référent (c'est-à-dire les traits distinctifs que devrait contenir une définition suffisante pour ces types de noms propres). Un point commun à toutes les catégories concerne l'explicitation du contexte référentiel : en contexte francophone particulièrement, le lieu doit être précisé par le traitement lexicographique. L'étude se termine par une analyse de l'arrimage entre noms propres et lexique commun dans les dictionnaires où ils sont intégrés dans un même ouvrage (PLI) ou dans une même nomenclature ( Dictionnaire Hachette, Dixel ). Nous arrivons à la conclusion que ces particularités dictionnairiques n'ont pas pour l'instant permis de corriger certaines faiblesses dans l'intégration des noms propres du vocabulaire politique, surtout en ce qui a trait à leur présence (nomenclature) et à leur traitement en terme de définition suffisante.
Resumo:
L’anorexie mentale et l’anorexie mentale atypique sont des problématiques de santé mentale qui affectent une portion non négligeable de la population. Toutefois, encore très peu d’études ont permis de démontrer l’efficacité des traitements pour ces troubles. L’évolution des connaissances dans les modèles explicatifs de l’anorexie oriente vers des processus psychologiques à cibler dans le traitement différents de ceux des thérapies conventionnelles. La présente étude vise à évaluer l’efficacité de la thérapie d’acceptation et d’engagement (ACT) sous forme d’un manuel d’auto-traitement appliqué à une population souffrant d’anorexie mentale ou d’anorexie mentale atypique. Un protocole expérimental à cas unique à niveaux de base multiples a été utilisé. Quatre femmes francophones présentant un de ces deux diagnostics ont reçu le traitement sur une durée de 13 semaines. Les résultats démontrent que les niveaux quotidiens d’actions pour maîtriser le poids et de préoccupations par rapport au poids et à la nourriture ont diminué suite au traitement. Le traitement a aussi permis aux participantes de passer d’un diagnostic de sévérité clinique à un en rémission partielle. La sévérité des symptômes de trouble alimentaire a aussi diminué suite au traitement et la flexibilité de l’image corporelle des participantes a augmenté, et ce de manières cliniquement significatives. Des processus propres à l’intervention ACT sont avancés pour rendre compte des effets observés.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
De nombreuses publications et études scientifiques démontrent clairement l'interaction de multiples facteurs de risque associés aux troubles des conduites alimentaires, entre autres, l'anorexie nerveuse. Les chercheurs orientant leurs études sur les difficultés vécues par les adolescentes anorexiques et leurs familles s'entendent sur le fait que ce trouble résulterait de la combinaison de nombreux facteurs de risque tels que les facteurs personnels, familiaux, sociaux et environnementaux. Bien que cette problématique des dysfonctions alimentaires soit multifactorielle, les modèles d'intervention familiale proposés dans la littérature scientifique ciblent généralement un certain nombre de variables spécifiques omettant toutefois certaines données influentes ce qui restreint l'efficacité et la pertinence des interventions effectuées.
Resumo:
Les consommateurs traitent une publicité imprimée à plusieurs niveaux dépendamment de leur motivation à le faire. Dans cette recherche, nous stipulons que l'adéquation entre la publicité et un schéma présent en mémoire va influencer la motivation du consommateur à traiter l'information publicitaire. Nous stipulons aussi que cette motivation va être modérée par le niveau d'implication du consommateur par la catégorie du produit annoncé dans l'annonce publicitaire. Une recherche expérimentale a donc été menée auprès de 202 personnes sur six annonces publicitaires imprimées: trois typiques et trois atypiques. Chaque unité expérimentale a évalué une publicité. Cette recherche, nous a permis de conclure que les publicités atypiques sont traitées plus en profondeur et sont mieux évaluées que les publicités typiques. D'autre part, nous montrons aussi que lorsqu'une publicité est typique et que le niveau d'implication du consommateur pour la catégorie de produit est élevé, la publicité est traitée plus en profondeur. Ainsi, l'effet modérateur de l'implication est appuyé. Les implications tant théoriques que pratiques de nos résultats sont discutées dans cette recherche.
Resumo:
Comme les résultats obtenus relativement à la relation entre l'utilisation de la capitalisation et le niveau d'endettement de l'entreprise sont difficiles à généraliser, ils ne permettent pas de conclure à l'existence d'une telle relation. Or, il a été démontré dans la littérature comptable, qu'en absence de normalisation, les entreprises endettées favorisent la méthode de capitalisation. Cela suggère donc que les critères énoncés par l'ICCA limitent le recours à la capitalisation. Les résultats obtenus relativement à la proportion des frais de développement capitalisés suggèrent qu'aucune relation n'existe entre la proportion capitalisée et le niveau d'endettement de l'entreprise. Cela suggère que les critères énoncés limitent le montant des frais de développement capitalisés. Par ailleurs, une association négative a été observée entre le recours à l'imputation et la taille des entreprises. Ce résultat est surprenant car les grandes entreprises sont vraisemblablement fructueuses et ont de bonnes chances de satisfaire les critères énoncés par l'ICCA. Cela suggère que les grandes entreprises se soustraient à l'obligation de capitaliser leurs frais de développement et que cela est vraisemblablement toléré par l'ICCA.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
La nanomédecine est porteuse de nombreuses promesses et bienfaits pour l’humanité. Or, l’opposition massive à l’introduction des organismes génétiquement modifiés (OGM) a montré que les promesses attendues des innovations technologiques ne sont pas garantes de leur acceptabilité. L’absence d’une démarche axée sur les impacts possibles, l’acceptation et l’acceptabilité de l’utilisation des nanotechnologies en médecine pourrait toutefois conduire à un manque d’adéquation entre les applications développées et les besoins et valeurs des acteurs sociaux. À partir d’un cadre conceptuel interdisciplinaire et du contexte clinique de la prévention et du traitement des plaies de pression chez les personnes diabétiques, les variables de perception d’impacts, d’acceptation et d’acceptabilité ont été opérationnalisées et étudiées afin d’explorer la relation entre ces variables, mais surtout de mieux comprendre l’influence des types de profil des répondants sur ces variables. L’exploration des impacts perçus, mobilisés et pondérés sur un ensemble d’enjeux a permis d’établir un premier portrait de l’acceptabilité de dispositifs à base de nanotubes de carbones utilisés dans le contexte clinique de soins des plaies de pression. Une approche descriptive-exploratoire fondée sur un devis mixte avec triangulation séquentielle des données a été employée. Un questionnaire a été développé et prétesté à l’aide d’entrevues cognitives (n = 35). Les données ont ensuite été recueillies en deux phases, d’abord par le biais d’un questionnaire en ligne (n = 270), puis par des entrevues individuelles semi-dirigées (n = 23). L’échantillon final se compose de trois types de profil, soit des professionnels de la santé, des personnes diabétiques et non-diabétiques. L’opérationnalisation du cadre de référence a permis de distinguer les dimensions individuelle/ sociale des concepts d’acceptation et d’acceptabilité. Plus encore, l’importance des types de profil dans l’étude de ces variables complémentaires à la perception des impacts a été démontrée, notamment par la mise en lumière du paradoxe des professionnels de la santé dans le jugement d’acceptabilité. Ces distinctions invitent à dépasser les approches traditionnelles d’acceptation technologique en axant davantage sur les impacts perçus et valorisés/priorisés dans la formation du jugement d’acceptabilité. Le développement d’applications en nanomédecine bénéficierait d’une meilleure compréhension de la formation du jugement d'acceptabilité et l'influence du type de profil sur celui-ci.
Resumo:
Les traitements acoustiques actuels pour parois d’avion sont performants en hautes fréquences mais nécessitent des améliorations en basses fréquences. En effet dans le cas des matériaux classiques cela nécessite une épaisseur élevée et donc les traitements ont une masse très importante. Des solutions sortant de ce cadre doivent donc être développées. Ce projet de maîtrise a pour but de créer un traitement acoustique à base de résonateurs de Helmholtz intégrés dans un matériau poreux, afin de réfléchir les ondes acoustiques basses fréquences tout en absorbant sur une large bande de fréquences en hautes fréquences. Le principe est basé sur la conception d’un méta-composite, optimisé numériquement et validé expérimentalement en tube d’impédance et chambres de transmission. La performance du concept sera également étudiée sur une maquette de la coiffe du lanceur Ariane 5 avec un modèle d’analyse énergétique statistique (SEA). Pour cela, on s’appuie sur les travaux précédents sur les résonateurs d’Helmholtz, les méta-matériaux, les méta-composites et la modélisation par matrices de transfert. L’optimisation se fait via un modèle basé sur les matrices de transfert placé dans une boucle d’optimisation.
Resumo:
En plus d’être associé à une espérance de vie précaire, les gliomes de haut grade (GHG) s’accompagnent de déficits cognitifs ayant le potentiel d’avoir un impact majeur sur la qualité de vie. Il demeure une compréhension limitée de l’étendue et de la nature des déficits cognitifs des patients en début de parcours de soins, de l’effet de la tumeur elle-même sur les fonctions cognitives tout comme de son lien avec la qualité de vie. L’objectif général de la présente étude était d’effectuer une évaluation cognitive de patients atteints de GHG avant tout traitement afin de décrire leur profil cognitif. Plus précisément, on visait à décrire l’étendue et la nature des déficits cognitifs des patients et explorer la relation entre les fonctions cognitives des patients et les caractéristiques tumorales (volume tumoral et de l’atteinte parenchymateuse) et le niveau de qualité de vie. Une seconde partie de l’étude visait à explorer l’utilité du Montreal Cognitive Assessment (MOCA), un test de dépistage, pour détecter des déficits cognitifs chez des patients atteints d’un GHG. Une étude descriptive transversale exploratoire, comportant un échantillon de 14 patients atteints de GHG nouvellement diagnostiqués et recrutés au Centre Hospitalier Universitaire de Sherbrooke, a été conduite. Les évaluations cognitives ont été effectuées à l’aide d’une batterie de six tests neuropsychologiques et du MOCA. Les volumes tumoraux provenant des imageries par résonance magnétique ont été obtenus grâce à une méthode volumétrique rigoureuse alors que la qualité de vie a été évaluée à l’aide du Sherbrooke Neuro-oncology Assessment Scale. Les résultats ont démontré que des déficits cognitifs sont bien présents en début de parcours de soins chez ces patients. En ce qui à trait aux caractéristiques tumorales, notre étude n’a pu démontrer de corrélation entre les déficits cognitifs et le volume tumoral, soulevant la possibilité d’une absence de lien entre ces deux variables. L’atteinte parenchymateuse créée par la tumeur corrèle avec un test d’évaluation de la vitesse de traitement de l’information (⍴ = -0,784, p = 0,01). Il semblerait par ailleurs que les fonctions cognitives ne soit pas corrélées avec le niveau de qualité de vie. Finalement, le MOCA semble être un outil prometteur pour l’évaluation cognitive des patients présentant des GHG, alors qu’il semble présenter une valeur prédictive positive satisfaisante malgré une sensibilité plus modeste.
Resumo:
Nous avons dirigé cet essai sur la conception et le développement d’un dispositif de formation en ligne, selon une approche par compétences au collégial, dans le cadre du cours crédité Éclairages et rendus 2 du programme Techniques d’animation 3D et synthèse d’images. Nous avons commencé en présentant le programme Techniques d’animation 3D et synthèse d’images du Cégep Limoilou, le cours Éclairages et rendus 2 et l’épreuve synthèse de programme (ESP) qui se rattache au programme. Nous avons également défini l’utilisation actuelle des technologies de l’information et de la communication (TIC) et des environnements numériques d’apprentissage (ENA) dans le programme et nous avons déterminé les modalités de cours au collégial. Ensuite, en l’absence de formation en ligne au Cégep Limoilou, nous avons exposé les raisons qui nous ont mené à concevoir et à développer un dispositif de formation en ligne pour le cours Éclairages et rendus 2. Nous avons identifié les problèmes, entre autres reliés aux politiques institutionnelles, à la convention collective et au manque de disponibilité des locaux. Ce manque de disponibilité des locaux limite le temps de pratique des étudiantes et étudiants, limite l’accessibilité aux logiciels et nuit à l’implantation de l’alternance travail-études (ATE) dans le programme Techniques d’animation 3D et synthèse d’images. La conception d’un dispositif de formation en ligne pour le cours Éclairages et rendus 2 permettrait de libérer des heures de laboratoire et faciliterait le processus d’adhésion à l’ATE. À partir de l’objectif général, nous avons construit le cadre de référence permettant de positionner les fondements de cet essai. Nous avons débuté en démystifiant la formation à distance et en définissant le concept d’ingénierie pédagogique, particulièrement le modèle ADDIE. Ensuite, nous avons clarifié la nature et les caractéristiques des ENA et défini l’approche par compétences. Nous avons terminé en définissant les objectifs spécifiques. L’approche méthodologique retenue dans le cadre de cet essai est une approche qualitative. Nous avons choisi une posture interprétative en accordant de l’importance à la compréhension et l’interprétation des résultats (Fortin, 2010). Cet essai est basé sur une recherche développement qui s’inscrit dans le pôle de l’innovation visant à développer du matériel technopédagogique. Les résultats démontrent que les étudiantes et les étudiants ont apprécié le dispositif d’apprentissage. L’ENA s’est avéré un outil familier pour les étudiantes et les étudiants, car ils utilisent quotidiennement l’ordinateur dans leurs fonctions de travail. L’expérimentation du dispositif a permis de recueillir des résultats qui ont été compilés, analysés et comparés dans le but d’améliorer le dispositif de formation en ligne. Nous avons corroboré les données à l’aide de deux méthodes de collecte de données, soit le journal du chercheur et le questionnaire à questions ouvertes et fermées. Pour les pistes futures, il serait intéressant de valider le dispositif de formation en ligne auprès d’un plus grand échantillon en ne se limitant pas uniquement à des étudiantes ou étudiants du programme de Techniques d’animation 3D et synthèse d’images. Il serait également intéressant de mettre en place un dispositif couvrant l’ensemble des 15 semaines de la session et de faire une mise à l’essai à plus d’une reprise. Enfin, une avenue intéressante serait de concevoir un dispositif plus universel et adapté à d’autres cours du programme et à d’autres programmes de formation collégiale et universitaire pouvant servir de guide plus général à la création d’une formation en ligne adaptée à une approche par compétences.
Resumo:
La présence des contaminants organiques dans l’environnement est une problématique aux enjeux aussi bien scientifiques que politiques. Le caractère diffus et continu (différentes et multiples sources) de cette contamination ne permet pas à ces molécules biologiquement actives d’être soumises à une législation. Ces molécules, pouvant être très récalcitrantes, ne sont pas systématiquement éliminées par les systèmes de traitement des eaux conventionnels. Actuellement, de nouveaux procédés biotechnologiques basés sur des enzymes extracellulaires (e.g. Laccase) ou des champignons lignivores permettent l’élimination des composés les plus récalcitrants. Notre compréhension des mécanismes impliqués dans cette élimination reste incomplète. En effet, la biosorption et l’activité des enzymes extracellulaire sont les mécanismes les plus souvent mis en avant pour expliquer l’efficacité des procédés d’élimination fongique, mais ne sont pas capables d’expliquer les performances obtenues pour certains composés pharmaceutiques. Ces lacunes dans nos connaissances sur les mécanismes responsables de l’élimination fongique des contaminants organiques sont un frein à la pleine exploitation de ces procédés de traitement. De plus, il est forcé d’admettre qu’un grand nombre de travaux portant sur l’élimination fongique de contaminants organiques ont été réalisés dans des conditions de hautes concentrations, qui peuvent être peu représentatives des matrices environnementales. Ainsi, les effets observés à plus forte concentration peuvent etre le résultat dû au stress de l’organisme au contact des contaminants (toxicités). Cette thèse adresse deux questions ; ainsi quelle est l’influence des concentrations traces sur de tels procédés ? Et comment expliquer l’élimination de certains contaminants organiques lors des traitements fongiques ? Afin d’apporter des éléments de réponse sur les mécanismes mis en jeux lors de l’élimination fongique, les travaux présentés ici ont été réalisés sur un modèle de champignon lignivore connu pour ses propriétés en bioremediation. Dans un premier temps, un développement analytique permettant la quantification d’une sélection de contaminants organiques à l’état de traces a été réalisé. Cette méthode a permis d’effectuer des analyses de ces molécules à partir d’un seul échantillon environnemental de faible biomasse et à partir d’une seule injection instrumentale. Les résultats de cette thèse démontrent que l’élimination fongique de contaminants organiques résulte de mécanismes plus complexes que précédemment décrits. Notamment, la dégradation est fortement dépendante d’une étape initiale d’internalisation du contaminant par l’organisme ciblé et de la dégradation intracellulaire. Les mécanismes impliqués peuvent ainsi donnés lieux à des réactions de conjugaison intracellulaire des molecules (glucuronide, glutathione). Les résultats démontrent également que ces procédés d’élimination fongique sont efficaces sur une large gamme de concentration en contaminants organiques. Cependant, les faibles concentrations modifient les propriétés physico-chimiques et biologiques de l’organisme testé (i.e. un changement de la morphologie et du profil de la production enzymatique). La réponse biologique n’étant pas directement proportionnelle a l’exposition en contaminant. Cette étude a permis d’accroitre notre compréhension des mécanismes impliqués dans la dégradation fongique de contaminants organiques. Ceci ouvre la voie à de nouvelles études portant sur les interactions entre processus intra — et extracellulaires. Cette thèse contribue également à l’amélioration des connaissances en offrant des outils de compréhension nécessaire à l’optimisation et au développement du potentiel de ces procédés biotechnologiques (ciblage et role des enzymes réeellement impliquées dans les réactions de biocatalyse).
Resumo:
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU).