999 resultados para acceptation des technologies
Resumo:
Rapport présenté en vue de l’obtention du grade de M.Sc.A génie biomédical option génie clinique
Resumo:
Une partie appréciable de la recherche moderne dans le domaine du photovoltaïque est basée sur des systèmes organiques sur couches minces. Les photo-détecteurs organiques ne diffèrent des technologies photovoltaïques solaires que par leurs structures chimiques au sein de la couche active, ainsi que par certaines propriétés nécessaires à leurs viabilités. Afin d’obtenir un matériau photoactif dans le proche infrarouge, la structure chimique doit être choisie et conçue de façon à placer ses bandes d’absorptions aux bons endroits. Un contrôle précis de la bande interdite du polymère dictera à quel point ce matériau peut servir à des fins de photo-détections. Les unités thieno-pyrazine et thieno-thiadiazole sont reconnues comme ayant un fort caractère électronique et viennent aisément produire des polymères à faible bande interdite lorsqu’ elles y sont incorporées. Au sein d’un système à hétérojonction de type donneur / accepteur, la miscibilité entre ces deux est cruciale et viendra justifier les performances finales d’un dispositif. Cette miscibilité dictera la morphologie de la couche active, qui est trop souvent imprévisible lors de la conception des structures chimiques des composés. On peut par contre penser à baser une étude sur une morphologie déjà établie, en balisant la structure globale du polymère, tout en modifiant ses fonctionnalités pour avoir un contrôle sur les propriétés électroniques finales. Une structure de poly (4,4’’-didodecyl-2,2’:5’,2’’-terthiophène) dont la morphologie est connue sera donc utilisée dans ce projet et une modification de son thiophène central viendra moduler son activité optique pour en faire un bon candidat en photo-détection infrarouge. Ces travaux ont permis de développer de nouveaux polymères conjugués et de vérifier leurs propriétés électro-optiques.
Resumo:
Ce travail porte sur l’identification, la fonction et la régulation des molécules maternelles d’ARNm qui dirigent la compétence développementale juste après la fécondation chez les bovins. Tout d’abord, en utilisant le modèle du temps écoulé jusqu’au premier clivage zygotique et à travers l’évaluation du transcriptome des embryons à 2-cellules, il fut possible de déterminer la signature moléculaire des niveaux extrêmes de compétence au développement et sélectionner des molécules candidates pour des études postérieures. Les résultats ont montré que les embryons de capacité développementale variable diffèrent dans certaines fonctions comme la réparation de l’ADN, le traitement de l’ARN, la synthèse de protéines et l’expression génique définies par des ARNm synthétisés par l’ovocyte. Pour obtenir une confirmation fonctionnelle, une paire de transcrits maternels (l’un détecté dans notre sondage précédent et l’autre étant une molécule reliée) ont été inhibés par « knock-down » dans des ovocytes. Les effets du knock-down de ces facteurs de transcription sont apparus avant la formation des blastocystes dû à une diminution de la capacité au clivage et celle à progresser après le stage de 8-cellules. L’analyse moléculaire des embryons knock-down survivants suggère qu’un de ces facteurs de transcription est un contrôleur crucial de l’activation du génome embryonnaire, qui représente une fenêtre développementale dans l’embryogenèse précoce. Dans la dernièr étude, nous avons testé si les facteurs de transcription d’intérêt sont modulés au niveau traductionnel. Des ARNm rapporteurs couplés à la GFP (Protéine fluorescente) contenant soit la version courte ou la version longue de la séquence 3’-UTR des deux molécules furent injectées dans des zygotes pour évaluer leur dynamique traductionnelle. Les résultats ont montré que les éléments cis-régulateurs localisés dans les 3’-UTRs contrôlent leur synchronisation traductionnelle et suggèrent une association entre la compétence développementale et la capacité de synthèse de ces protéines. Ceci conduit à l’idée que ces facteurs de transcription cruciaux sont aussi contrôlés au niveau traductionnel chez les embryons précoces. Les connaissances acquises ont joué un rôle essentiel pour définir le contrôle potentiel des molécules maternelles sur les embryons au début de leur développement. Cette étude nous montre aussi une utilisation potentielle de cette information ainsi que les nouveaux défis présents dans le secteur des technologies reproductives.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
L’objet d’étude de cette recherche porte sur l’utilisation des technologies de l’information et de la communication (TIC) dans un contexte d’apprentissage. Le développement de ces technologies offre de nouvelles possibilités quant aux façons de réaliser des apprentissages. L’auteure de cette recherche a élaboré un environnement tutoriel d’apprentissage en ligne afin de savoir s’il pouvait favoriser le jugement clinique des étudiantes et des étudiants en soins infirmiers au collégial.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
Abstract: Everyone knows that in today's modern world, it is hard to keep up with the pace of the ever changing field of technology. This is no different in technology programs at the cegep level. Teachers who are employed at the cegep level find it difficult to keep up to date with the evolving industry trends, especially when working full time. In this paper, the involvement of alumni in the program is examined. The purpose of this study is to examine five areas of alumni involvement. These five major areas of alumni involvement are advisory committees, internships, field trips, guest speaking and real life projects. The literature is reviewed with respect to each of the described areas of involvement as well as theories of motivation. The shift of emphasis from teacher to student is discussed as well as the role of the teacher when faced with changes in technology. Finally students and alumni are surveyed to examine their perceptions to the various types of alumni involvement in the B.S.E.T. program. This research helps to describe whether and to what degree alumni involvement benefits our students in B.S.E.T. Several variables are examined, such as: academic satisfaction and alumni involvement; graduation year and academic satisfaction; graduation year and alumni involvement. The study also examines areas such as motivational attitudes of graduates to stay involved; areas where it is crucial for alumni to stay involved; desire to partner in a capstone project and area of involvement that tends to motivate students the most and that the graduates find of utmost importance.
Resumo:
Nous avons dirigé cet essai sur la conception et le développement d’un dispositif de formation en ligne, selon une approche par compétences au collégial, dans le cadre du cours crédité Éclairages et rendus 2 du programme Techniques d’animation 3D et synthèse d’images. Nous avons commencé en présentant le programme Techniques d’animation 3D et synthèse d’images du Cégep Limoilou, le cours Éclairages et rendus 2 et l’épreuve synthèse de programme (ESP) qui se rattache au programme. Nous avons également défini l’utilisation actuelle des technologies de l’information et de la communication (TIC) et des environnements numériques d’apprentissage (ENA) dans le programme et nous avons déterminé les modalités de cours au collégial. Ensuite, en l’absence de formation en ligne au Cégep Limoilou, nous avons exposé les raisons qui nous ont mené à concevoir et à développer un dispositif de formation en ligne pour le cours Éclairages et rendus 2. Nous avons identifié les problèmes, entre autres reliés aux politiques institutionnelles, à la convention collective et au manque de disponibilité des locaux. Ce manque de disponibilité des locaux limite le temps de pratique des étudiantes et étudiants, limite l’accessibilité aux logiciels et nuit à l’implantation de l’alternance travail-études (ATE) dans le programme Techniques d’animation 3D et synthèse d’images. La conception d’un dispositif de formation en ligne pour le cours Éclairages et rendus 2 permettrait de libérer des heures de laboratoire et faciliterait le processus d’adhésion à l’ATE. À partir de l’objectif général, nous avons construit le cadre de référence permettant de positionner les fondements de cet essai. Nous avons débuté en démystifiant la formation à distance et en définissant le concept d’ingénierie pédagogique, particulièrement le modèle ADDIE. Ensuite, nous avons clarifié la nature et les caractéristiques des ENA et défini l’approche par compétences. Nous avons terminé en définissant les objectifs spécifiques. L’approche méthodologique retenue dans le cadre de cet essai est une approche qualitative. Nous avons choisi une posture interprétative en accordant de l’importance à la compréhension et l’interprétation des résultats (Fortin, 2010). Cet essai est basé sur une recherche développement qui s’inscrit dans le pôle de l’innovation visant à développer du matériel technopédagogique. Les résultats démontrent que les étudiantes et les étudiants ont apprécié le dispositif d’apprentissage. L’ENA s’est avéré un outil familier pour les étudiantes et les étudiants, car ils utilisent quotidiennement l’ordinateur dans leurs fonctions de travail. L’expérimentation du dispositif a permis de recueillir des résultats qui ont été compilés, analysés et comparés dans le but d’améliorer le dispositif de formation en ligne. Nous avons corroboré les données à l’aide de deux méthodes de collecte de données, soit le journal du chercheur et le questionnaire à questions ouvertes et fermées. Pour les pistes futures, il serait intéressant de valider le dispositif de formation en ligne auprès d’un plus grand échantillon en ne se limitant pas uniquement à des étudiantes ou étudiants du programme de Techniques d’animation 3D et synthèse d’images. Il serait également intéressant de mettre en place un dispositif couvrant l’ensemble des 15 semaines de la session et de faire une mise à l’essai à plus d’une reprise. Enfin, une avenue intéressante serait de concevoir un dispositif plus universel et adapté à d’autres cours du programme et à d’autres programmes de formation collégiale et universitaire pouvant servir de guide plus général à la création d’une formation en ligne adaptée à une approche par compétences.
Resumo:
Rapport présenté en vue de l’obtention du grade de M.Sc.A génie biomédical option génie clinique
Resumo:
Rapport de maitrise présenté en vue de l’obtention du grade M. Sc. A. en génie biomédical option Génie clinique
Resumo:
Rapport de maitrise présenté en vue de l’obtention du grade M. Sc. A. en génie biomédical option Génie clinique
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
Nous avons choisi d’orienter cet essai sur la conception et le développement d’un dispositif d’apprentissage pour aider les enseignantes et enseignants à améliorer la compétence des stagiaires en matière d’asepsie de l’instrumentation dentaire lors de stages cliniques du programme de techniques de denturologie du cégep Édouard-Montpetit. L’idée d’un tel dispositif d’apprentissage prend racine à partir d’observations concrètes et récurrentes. En effet, depuis plusieurs années les enseignantes et enseignants du département de Techniques de denturologie ont pu remarquer des lacunes dans l’application des mesures d’asepsie, tout particulièrement celles de l’instrumentation dentaire. Le contexte particulier de la pratique de la prosthodontie, les risques élevés de contamination croisée, l’usage d’un grand nombre d’instruments dentaires, le manque de matériel didactique et d’activités d’apprentissage spécifiques à la pratique de la denturologie et l’inexistence d’un protocole d’asepsie au département de Techniques de denturologie font qu’il est difficile d’accroître la compétence des stagiaires en matière d’asepsie dentaire. Le cadre de référence a permis de circonscrire notre dispositif d’apprentissage développé dans le projet de cet essai. Nous avons donc exploré les différents modèles de téléapprentissage et appuyé notre choix sur ceux proposés par Paquette (2005a). Ainsi nous avons choisi de retenir deux modèles de téléapprentissage, soit l’autoformation Web-hypermédia et la formation en ligne. Nous avons aussi regardé les principes soutenant l’ingénierie pédagogique et les différents modèles permettant l’application d’un processus systémique à la conception et au développement d’un dispositif d’apprentissage en s’appuyant sur le modèle ADDIE (Analyse-Design- Développement-Implantation-Évaluation), plus particulièrement celui de Lebrun (2007). L’approche méthodologique retenue pour cet essai est qualitative / interprétative. Le type de notre essai est basé sur une démarche de recherche développement proposée par Harvey et Loiselle (2009) qui est liée à la conception d’un dispositif d’apprentissage. Nous avons pu compter sur la collaboration d’enseignantes et enseignants du département de denturologie du cégep Édouard-Montpetit afin de valider trois des cinq étapes du modèle ADDIE, soit l’analyse, le design et le développement. Les résultats obtenus auprès des enseignantes et enseignants du département ont démontré que le modèle ADDIE de Lebrun (2007) s’est avéré un processus systémique adéquat et efficace qui a permis de concevoir et développer un dispositif d’apprentissage efficient. En ce qui a trait aux pistes futures, il sera intéressant d’expérimenter ce dispositif d’apprentissage auprès des stagiaires en denturologie afin de mesurer leur intérêt à ce mode d’accès à la connaissance et leur perception à l’égard de leur compétence sur l’asepsie de l’instrumentation dentaire. Il sera possible ainsi d’envisager la pertinence d’intégrer cette formation en ligne à l’intérieur du stage clinique voire même dans d’autres cours du programme. De plus, une recherche pourrait aussi être conduite auprès de stagiaires d’un programme collégial similaire, soit celui de Techniques d’hygiène dentaire dans lequel les stagiaires font aussi un stage clinique à l’intérieur du Cégep. Une autre recherche permettrait d’expérimenter ce dispositif d’apprentissage auprès des denturologistes du Québec. Ce faisant, des chercheuses et des chercheurs pourraient comparer la perception de l’amélioration de la compétence de l’asepsie de l’instrumentation dentaire des denturologistes à celle des stagiaires. Enfin, une avenue qui serait possible serait celle où des chercheuses et des chercheurs pourraient s’intéresser à l’usage même des technologies de l’information et de la communication (TIC) en déterminant dans quelle mesure les « ressources d’enseignement et d’apprentissage (REA) » (Poellhuber et Fournier St-Laurent, 2014, p. 163) pourraient être les plus significatives à l’apprentissage et mesurer ainsi l’effet catalyseur des REA sur les pratiques d’apprentissage des stagiaires.