951 resultados para Conception numérique de revêtements optiques
Resumo:
Marshall McLuhan écrit quelque part à peu près ceci: "vous jouez devant une salle vide; les spectateurs l'ont quittée depuis vingt ans". Devant le discours des analystes et critiques sociologues, philosophes, théologiens, administrateurs, diffuseurs et les autres sur 1es moyens de communication de masse-surtout les moyens électroniques-, l'auteur de La Galaxie Gutenberg et de Pour comprendre les Média semble éprouver à la fois une indignation amusée et angoissée. C'est que malgré l'habileté avec laquelle ils manient les concerts, les principes, les catégories dans l'analyse et l'interprétation de la réalité technologique, ils pêchent de ne point atteindre la "vraie” réalité et ainsi voient la vraie connaissance leur échapper.
Resumo:
Dans cette étude, différentes configurations d’un poêle à bois sont comparées afin de caractériser les principaux facteurs influençant la formation de particules et leur rejet. Ainsi, les paramètres de conception d’un poêle à bois seront étudiés expérimentalement et à l’aide de la dynamique des fluides numérique pour découvrir les lignes directrices en ce qui concerne la réduction de l’émission de particules. La méthode expérimentale utilisée est une adaptation de celle utilisée par l’industrie pour la certification de poêle à bois développée par EPA/CSA. Afin de mieux décrire le comportement d’un concept de poêle à bois donné, à un taux de combustion donné, l’étude abordera également : la distribution de température interne, la composition des émissions gazeuses, le ratio air carburant (), l’efficacité globale du poêle, l’humidité et la distribution d’air à l’intérieur de la chambre de combustion. Le suivi de ces paramètres a permis de révéler leur influence significative sur les émissions en considérant les modifications et les conditions d’opération du poêle.
Resumo:
Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.
Resumo:
En 2008, le Québec fait son entrée dans le marché du livre numérique. Cette année-là, l’Association nationale des éditeurs de livres du Québec (ANEL) s’associe avec l’entreprise De Marque pour créer l’Entrepôt numérique (www.entrepotnumerique.com), une plateforme de diffusion et de distribution de livres numériques québécois. Sa structure permet de stocker et de gérer les fichiers numériques, tout en offrant aux éditeurs une interface personnalisée afin que chacun puisse commercialiser ses titres en quelques étapes simples. Dès le départ, les instigateurs de ce projet font le pari de mettre en place une infrastructure de diffusion-distribution propre aux Québécois et qui répond à l’internationalisation du marché du livre. Mais les enjeux sont nombreux pour les professionnels du système-livre du Québec qui tentent de s’adapter aux nouvelles structures et de se frayer un chemin dans la sphère numérique. À la fois d’ordre technologique, économique et culturel, ces enjeux posent la double question de la commercialisation d’une nouvelle forme de livre et de la présence de la culture québécoise sur le web. En effet, face à la multiplication des titres et devant l’espace infini de la Toile, comment assurer la circulation et la promotion du livre numérique ? Comment adapter les circuits traditionnels à un nouveau format de livre qui se distingue de la forme fixe du livre imprimé que l’on connaît ? Et comment, surtout, la culture québécoise peut-elle prendre place auprès de géants internationaux comme Amazon, Google ou Apple ? Ayant précisément pour mandat d’offrir une solution de diffusion numérique simple et efficace aux éditeurs québécois et canadiens-français, l’Entrepôt numérique distribue la production de 148 éditeurs, donnant ainsi aux lecteurs un accès à un catalogue mutualisé comptant 17 144 publications. Plus de 750 000 livres numériques ont été vendus depuis 2009 et de nombreuses ententes de partenariat ont été signées avec 194 revendeurs provenant de 58 pays. Or, en assurant la circulation et la commercialisation des titres dans l’espace numérique, l’Entrepôt numérique participe à la mutation du secteur de la diffusion-distribution au Québec. Il illustre ainsi les évolutions techniques, économiques et structurelles du marché. S’intéresser à l’Entrepôt numérique comme objet d’étude, c’est donc s’intéresser aux enjeux (technologiques, culturels, économiques) pouvant se dégager des nouvelles stratégies de circulation et de commercialisation du livre numérique implantées au sein de la filière québécoise. Trois chapitres composent ce mémoire. Le premier propose un historique de l’Entrepôt numérique. En décrivant à la fois les enjeux de départ, les acteurs impliqués et l’évolution de la plateforme, il permet de situer les conditions culturelles, commerciales et éditoriales ayant permis le développement de cette plateforme. Le deuxième chapitre, qui examine les mécanismes de distribution via l’Entrepôt numérique, met en lumière les différents jalons qui marquent le passage de la distribution traditionnelle à la distribution du livre numérique. Enfin, le troisième chapitre porte sur les mécanismes de diffusion du livre numérique de la plateforme et illustre ainsi les nouvelles conditions de promotion du livre dans la sphère numérique. En somme, la présentation de l’historique de l’Entrepôt numérique et l’examen des mécanismes de diffusion et de distribution de la plateforme permettent d’offrir une meilleure préhension des transformations et enjeux émanant de l’industrie du livre numérique au Québec, entre 2007 et 2015.
Resumo:
(POO) est l’utilisation de patrons de conception (PC). Un PC est un arrangement caractéristique de classes permettant d’offrir une solution éprouvée, tout en obtenant un code réutilisable et compréhensible. Plusieurs PC sont définis, dont 24 par la GoF [12] et plusieurs autres sont apparus par la suite. Le concept de PC est abstrait ce qui peut amener différentes interprétations. Ces différences peuvent aussi causer une mauvaise implémentation qui peut réduire les avantages d’utiliser ce patron. Ce projet consiste à concevoir un outil facilitant l’utilisation des PC. L’outil Génération et Restructuration de Patrons de Conception(GRPC) permet la génération automatique du squelette d’un patron de conception ainsi que la restructuration d’un code en le transformant structure respectant un PC. La génération et la restructuration automatique permettent d’obtenir un code uniforme et de qualité tout en respectant le patron de conception. La compréhension et la maintenance du code sont ainsi améliorées. GRPC est module d’extension pour l’environnement de développement Eclipse écrit en Java. Le code est conçu pour être facilement compréhensible et extensible. Les deux principaux objectifs de GRPC sont de restructurer (refactoring) une section de code vers l’architecture d’un patron de conception et de générer des squelettes de patrons de conception. Une interface graphique permet de guider l’utilisateur et d’aller chercher toutes les informations importantes pour le fonctionnement du logiciel. Elle permet aussi de configurer les éléments du patron de conception. Pour s’assurer de la possibilité d’effectuer une restructuration, chaque patron est associé avec une ou plusieurs règles qui analysent le code pour détecter la présence d’une structure particulière. Des procédures aident les développeurs à ajouter de nouveaux PC dans GRPC. GRPC fournit des fonctionnalités permettant d’implémenter quelques patrons de conception de la POO définis dans le livre Design Patterns : Elements of Reusable Object-Oriented Software.
Resumo:
Pour augmenter sa compréhension du monde qui l’entoure, le physicien moderne ne cesse de travailler au développement d’outils théoriques ou expérimentaux pour l’aider à répondre à ses questions fondamentales. Une partie de ces chercheurs tente de répondre à une question bien définie, mais simultanément très vague : qu’est-ce que le bruit électro- nique? Guidés par cette idée, certains étudient des dispositifs comme la jonction tunnel ou la jonction Josephson, alors que d’autres travaillent à l’amélioration des méthodes de détection du bruit. Le présent mémoire de maîtrise traite donc de la conception d’un outil de détection bien particulier, le micro-bolomètre supraconducteur de niobium-titane-niobium. La théorie derrière le fonctionnement d’un tel dispositif est expliquée à l’aide d’une comparaison entre un bolomètre conventionnel et un bolomètre supraconducteur. Des concepts comme la sensibilité d’un détecteur, la conductance thermique et la méthode d’utilisation sont présentés. Les étapes du procédé de fabrication sont ensuite explicitées dans les moindres détails. Finalement, les propriétés électroniques d’un tel micro-bolomètre sont analysées à l’aide de la courbe caractéristique courant-tension, de la courbe de transition supraconductrice en température et de dfférentes mesures en réflectométrie. La puissance équivalente de bruit (NEP) mesurée est de l’ordre de 10[indice supérieur −17] W/√Hz et le temps caractéristique de détection est de 1.43 μs. Le dispositif présenté dans ce mémoire a un avantage important par rapport aux bolomètres supraconducteurs généralement utilisés : il ne nécessite pas de courant de polarisation continu pour le mettre en fonctionnement. Ceci peut résulter en divers avantages technologiques.
Resumo:
Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).
Resumo:
National audience
Resumo:
Dans la dernière décennie, la robotique souple a connu un gain de popularité considérable. Elle est, de façon inhérente, sécuritaire pour les humains et l’environnement qui l’entourent. Grâce à sa faible rigidité, la robotique souple est idéale pour manipuler des objets fragiles et elle est en mesure de s’adapter à son environnement. Les caractéristiques uniques de la robotique souple font de cette technologie un tremplin vers la conception d’appareils médicaux novateurs, plus particulièrement pour des outils permettant le positionnement d’aiguilles dans le but de faire des interventions percutanées, notamment au niveau du foie. Toutefois, la souplesse de cette technologie induit, du même coup, quelques désagréments. Elle procure un comportement sécuritaire, mais entraîne aussi un manque de rigidité limitant les applications de la robotique souple. Sans une rigidité minimale, il est impossible d’accomplir des opérations repérables et précises. La robotique souple a en fait un compromis majeur entre la capacité de chargement et la plage d’utilisation. Pour utiliser cette technologie dans le domaine médical, il est primordial d’ajouter un système permettant de moduler la rigidité du système pour inhiber ce compromis. Couplée avec un système de freinage granulaire, la robotique souple semble comporter l’ensemble des caractéristiques permettant d’accomplir des interventions au foie. Cette étude tend à démontrer que couplée à un système modulant la rigidité, la robotique souple peut être utilisée pour accomplir des opérations d’une façon précise et repérable, tout en demeurant sécuritaire. Le positionneur d’aiguilles développé est 100 % compatible avec l’Imagerie à Résonance Magnétique (IRM). La plage d’insertion du système permet de rejoindre l’entièreté du foie (1500 cm³), tout en maintenant une rigidité suffisante (3 N/mm) et en étant aussi précis que l’outil d’imagerie utilisée (1 mm). L’approche hybride consistant à développer un système activé de façon souple couplée à un module régulant sa rigidité permet d’obtenir à la fois les avantages d’une robotique compliante (souple) et conventionnelle (dure).
Resumo:
Le Spyder conçu par BRP est un véhicule complexe, original et peu connu du grand public à travers le monde. Par conséquent, on souhaite développer un outil facile d’accès pour la découverte, la formation au pilotage et l’aide à la conception du roadster. Le sujet de ce projet de maîtrise est le développement du modèle dynamique du véhicule et l’intégration à une plateforme de simulation existante. Pour y parvenir, on élabore un modèle réaliste du véhicule sous deux versions, sport et tourisme. Après avoir recherché les différents paramètres et caractéristiques du véhicule, on se concentre d’abord sur un modèle simple puis sur un modèle plus complexe comportant différents modules, comme la motorisation et les aides à la conduite. En vue de valider le modèle, on utilisera les résultats de tests et des mesures expérimentales. Après validation, le modèle doit être intégré à la nouvelle plateforme de simulation. Le logiciel, développé en langage C++, est élaboré à partir de la plateforme de base. Des modèles 3D détaillés du Spyder offrent un rendu graphique réaliste pour une meilleure immersion. Le modèle est capable de répondre en temps réel et de manière réaliste et précise sous le contrôle de l’utilisateur. On a donc un outil polyvalent à objectifs multiples : faire connaître le véhicule, aider l’ingénieur dans l’étude du véhicule et former les futurs pilotes de manière plus efficace et moins coûteuse. L’outil de simulation peut être également un moyen d’évaluer facilement des paramètres dont l’appréciation est subjective comme la signature sonore du véhicule.
Resumo:
Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.
Resumo:
Dans cette recherche, l’enseignante-chercheuse analyse la méthode d’enseignement, les activités d’apprentissage et les modalités d’évaluation de la portion théorique du cours de stage en biochimie clinique dans le cadre du programme Technologie d’analyses biomédicales (140.BO) offert au Collège de Rosemont. Dans les années précédant la recherche, les stagiaires avaient formulé certains problèmes dont: un contenu trop lourd et le manque d’interactivité. Ces contraintes ont obligé l’enseignante-chercheuse à se questionner sur le processus pédagogique et sur la relation d’apprentissage. De plus, le manque d’intégration des connaissances des stagiaires mis en évidence lors de la préparation de l’examen national de la SCSLM et la baisse de performance à ces mêmes examens ont été les éléments déclencheurs de la recherche. Trois approches pédagogiques ont été utilisées afin de favoriser l’intégration des apprentissages et faire progresser les étudiantes et les étudiants vers un résultat acceptable en fin de stage. Premièrement, il a fallu passer par une réorganisation de contenu. Deuxièmement, nous avons mis en place un environnement plus interactif favorisant l’évaluation formative à l’aide de la plate-forme pédagogique Moodle. Troisièmement, nous avons introduit un mode d’évaluation formative qui s’harmonise à l’évaluation sommative. Toutes ces étapes ont été effectuées afin de faire progresser l’étudiante et l’étudiant et de l’informer clairement de ses performances pour qu’elle ou qu’il en arrive à intégrer les nombreuses notions théoriques en biochimie. Il est important de préciser que c’est à partir des assises du cadre de référence de cette recherche qu’il a été possible de dégager des actions pour innover notre pratique pédagogique. C’est par l’évaluation formative s’inscrivant dans diverses modalités de régulation ou d’autorégulation de l’apprentissage, permettant l’accès à la reprise à l’aide des questionnaires interactifs de la plate-forme pédagogique Moodle que nous avons mis en place une première solution. Comme deuxième solution, l’enseignante-chercheuse a présenté à chaque étape, par sujet de révision, une évaluation formative à des fins sommatives avec la possibilité d’une deuxième tentative. Les performances qui y ont été évaluées, ont été modifiables et ont contribué à la note de fin d’étape. Le but de notre démarche était de trouver des réponses à la question de recherche: L’évaluation formative par l’utilisation des technologies améliorera-t-elle les apprentissages des étudiantes et des étudiants en biochimie à la fin du programme d’étude en Techniques d’analyses biomédicales? La conception du scénario pédagogique ainsi que la mise à l’essai du matériel servant à l’évaluation formative à travers les outils interactifs de la plate-forme Moodle, ont tous été aussi importants. Dans le cadre du choix méthodologique, les trois objectifs spécifiques de la recherche ont été respectés, c’est-à-dire: 1. Concevoir le matériel servant à l’évaluation formative et le générer sur la plate-forme informatisée; 2. Mettre en application l’utilisation des nouveaux éléments d’apprentissage et des processus d’évaluation; 3. Vérifier si l’évaluation formative influencera l’apprentissage qui aura pour but une meilleure intégration des connaissances. Par le volet qualitatif de l’étude, l’enseignante-chercheuse vise à comprendre ce qui a été formulé par les étudiantes et les étudiants relativement à une démarche d’évaluation formative, interactive et continue générée par l’usage de l’outil informatisé Moodle. Cette démarche d’apprentissage assisté par ordinateur comprenait des applications d’évaluation formative élaborées sur la plate-forme pédagogique Moodle pour que les étudiantes et les étudiants en arrivent à cibler plus facilement leurs lacunes. Ainsi, les étudiantes et les étudiants étaient en mesure d’y remédier immédiatement par la fonction régulatrice propre à l’évaluation formative à l’aide des TIC. Ce qui situe la recherche dans le pôle de l’innovation, c’est l’intégration des TIC qui a permis d’établir les modalités d’évaluation formative à des fins sommatives, une reprise en deux temps, dans une perspective d’intégration des apprentissages. Par la collecte de données, se rangeant sous le paradigme interprétatif, la grille d’appréciation et l’entrevue semi-dirigée ont permis de faire ressortir ce que les étudiantes et les étudiants ont noté comme éléments d’approbation ou de valorisation de l’enseignement et de l’apprentissage. Dans le volet quantitatif de l’étude, l’enseignante-chercheuse a analysé les résultats des examens du parcours de stage dans l’intérêt de savoir s’il y a eu amélioration des apprentissages des étudiantes et des étudiants en stage à la fin du programme. De ces étapes, l’interprétation des données recueillies a permis d’alimenter la réflexion sur les principales approches mises en place dans les cours théoriques du stage en biochimie clinique. Cette étape a contribué à supporter l’objectivation du sens produit de cette recherche. Les résultats obtenus et l’interprétation qui en résulte présente que l’ensemble des stagiaires s’accorde à dire que les tests formatifs, le processus d’évaluation formative à des fins sommatives, une reprise en deux temps et le contenu interactif sur la plate-forme Moodle, permettent de faire des liens entre les connaissances déjà acquises, d’intégrer la matière et contribue à stimuler leur motivation à fournir un effort soutenu. L’utilisation des ressources du système de gestion de l’apprentissage Moodle a permis d’établir des modes d’évaluation formative dans une perspective d’intégration des apprentissages. Ces résultats sont intéressants puisqu’il a été possible de constater les difficultés des stagiaires aux examens, de relier des questions à des objectifs moins bien réussis et pour lesquels les étudiantes et les étudiants affirment ne pas avoir assez de temps d’enseignement à propos de ces notions théoriques. L’enseignante-chercheuse a alors entrepris une démarche d’amélioration continue de sa pratique pédagogique et de l’environnement numérique d’apprentissage. Entre 2012 et 2015, elle a utilisé une grille d’évaluation et a analysé les résultats des examens lui permettant de mieux cibler les ressources à améliorer pour favoriser la réussite de ses étudiantes et de ses étudiants. Elle poursuit sa réflexion à propos des conditions d’appropriation des connaissances théoriques en biochimie et aux interventions les plus susceptibles d’assurer l’intégration des apprentissages.
Resumo:
Cette recherche de nature qualitative avait pour objectif général de faire avancer les enseignantes et les enseignants du programme Graphisme du Cégep de Rivière-du-Loup dans l’adoption d’une terminologie commune qui serait de nature à créer une meilleure cohésion dans le programme. La problématique a permis de constater que l’utilisation de certains termes donnant lieu à plusieurs interprétations trouble la communication entre enseignants et apprenants. L’arrivée d’un nouveau programme en Graphisme permet au personnel enseignant de travailler au développement d’une compréhension commune du vocabulaire utilisé en Graphisme. Le cadre de référence en didactique, développée par le secteur PERFORMA de l’Université de Sherbrooke, a orienté cette recherche scientifique. Cette base de connaissances adaptée à l’enseignement collégial a permis d’encadrer cet essai et de trouver une solution au problème rencontré. Les fondements de cette recherche s’appuient donc sur une démarche de nature didactique qui offre des solutions documentées pour définir et présenter ces termes sans équivoque. L’utilisation du wiki pour l’élaboration du lexique numérique, apporte une solution collaborative pour documenter les termes posant problème afin de coconstruire une représentation commune chez le personnel enseignant du programme Graphisme au Cégep de Rivière-du-L
Resumo:
Notre étude porte le western crépusculaire et cherche plus précisément à extraire le « crépusculaire » du genre. L'épithète « crépusculaire », héritée du vocabulaire critique des années 1960 et 1970, définit généralement un nombre relativement restreint d'œuvres dont le récit met en scène des cowboys vieillissants dans un style qui privilégie un réalisme esthétique et psychologique, fréquemment associé à un révisionnisme historique, voire au « western pro-indien », mais qui se démarque par sa propension à filmer des protagonistes fatigués et dépassés par la marche de l'Histoire. Par un détour sur les formes littéraires ayant comme contexte diégétique l’Ouest américain (dime-novel et romans de la frontière), nous effectuons des allers et retours entre les formes épique et romanesque, entre l’Histoire et son mythe, entre le littéraire et le filmique pour mieux saisir la relation dyadique qu’entretient le western avec l’écriture, d’une part monumentale et d’autre part critique, de l’Histoire. Moins intéressée à l’esthétique des images qu’aux aspects narratologiques du film pris comme texte, notre approche tire profit des analyses littéraires pour remettre en cause les classifications étanches qui ont marqué l’évolution du western cinématographique. Nous étudions, à partir des intuitions d’André Bazin au sujet du sur-western, les modulations narratives du western ainsi que l’émergence d’une conscience critique à partir de ses héros mythologiques (notamment le cow-boy). Notre approche est à la fois épistémologique et transhistorique en ce qu’elle cherche à dégager du western crépusculaire un genre au-delà des genres, fondé sur une incitation à la narrativisation crépusculaire de la part du spectateur. Cette dernière, concentrée par une approche deleuzienne de l’image-cristal, renvoie non plus seulement à une conception existentialiste du personnage dans l’Histoire, mais aussi à une mise en relief pointue du hors-cadre du cinéma, moment de clairvoyance à la fois pragmatique et historicisant que nous définissons comme une image-fin, une image chronogénétique relevant de la contemporanéité de ses figures et de leurs auteurs.
Resumo:
Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.