21 resultados para Humanités numériques
Resumo:
Cet essai a pour but d'élaborer un matériel didactique permettant l'apprentissage des premières habiletés numériques chez l'enfant vivant avec une déficience intellectuelle moyenne (DIM). La recension des écrits théoriques et expérimentaux effectuée par Brouillette (1994) sur l'acquisition des premières habiletés numériques chez des enfants vivant avec une déficience intellectuelle moyenne servira de base référentielle à la production de cet essai. En effet, nous nous servons du même cadre théorique basé sur le behaviorisme paradigmatique de Staats (1963, 1968, 1971, 1975) et nous utilisons les conclusions tirées des différents écrits de cette recension pour guider la création du matériel pédagogique. Nous désirons bâtir un matériel qui vise à faciliter l'apprentissage des premières habiletés numériques afin de favoriser l'intégration des domaines reliés à la gestion du temps, la gestion de l'argent et l'utilisation des nombres dans la vie quotidienne. Ces domaines, selon Ouellet (1993), permettent une meilleure intégration sociale des personnes DIM en favorisant le développement de l'autonomie fonctionnelle. Cet essai devra répondre à la question suivante : Quelles sont les activités pédagogiques appropriées à l'apprentissage des premières habiletés numériques pour un enfant vivant avec une déficience intellectuelle moyenne? Trois composantes dirigeront la préparation de cet outil pédagogique : la recension des écrits de Brouillette (1994), les programmes d'études adaptés du ministère de l'Éducation (1992) et l'expérience professionnelle de l’auteure.
Resumo:
Facebook joue un rôle déterminant dans la montée fulgurante en popularité des RSN sur Internet. Tout le fonctionnement de la plateforme repose sur la connexion aux comptes des autres membres. La popularité de Facebook doit beaucoup au partage public et réciproque des informations personnelles de ses usagers. Ce type de renseignement était jusqu’à présent réservé aux personnes appartenant à un cercle restreint de proches et d’intimes. Toutefois, les listes de contact des utilisateurs Facebook ne sont pas uniquement constituées d’amis proches, mais plutôt d’un ensemble de relations interpersonnelles – formé de connaissances, de collègues, d’anciens camarades de classe, etc. Les membres Facebook divulguent ainsi souvent leur intimité à un auditoire qui peut être qualifié de public en raison de sa taille et de sa diversité d’origine. Les recherches quantitatives sur le sujet sont nombreuses, néanmoins le point de vue de réels utilisateurs des réseaux sociaux numériques est très peu connu. Cette étude exploratoire vise les expressions visibles de l’intimité sur les réseaux sociaux numériques, tels que Facebook, et s’intéresse plus particulièrement à l’apparition d’une nouvelle forme d’intimité exclusive aux réseaux sociaux numériques. Pour ce faire, 15 entretiens individuels ont été menés auprès d’une population à forte utilisation de Facebook : les étudiantes universitaires de 18 à 24 ans. À l’aide des notions d’espace public, d’espace privé, d’intimité, d’extimité et de visibilité, ce mémoire explore la représentation que l’utilisateur se fait de l’envahissement du territoire de l’intimité par les réseaux sociaux. On y explique l’apparition d’une possible nouvelle forme d’intimité – engendré par les réseaux sociaux numériques – grâce au mouvement des frontières entre les espaces privés et publics. Selon les résultats présentés dans ce mémoire, les utilisateurs Facebook emploient un certain nombre de stratégies pour se protéger des effets négatifs de la diffusion de leur vie privée, tout en divulguant suffisamment d’information pour assurer l’entretient de leur relation avec leurs amis. Leur vie privée est donc publique, mais seulement pour leurs propres réseaux. L’intimité sur Facebook s’affiche aisément, selon des degrés déterminés par la communauté d’utilisateurs, alors qu’elle reste cachée dans la vie de tous les jours.
Resumo:
Cet essai traite des stratégies pédagogiques utilisant des fonctionnalités disponibles dans des environnements numériques d’apprentissage (ENA) en enseignement hybride dans le réseau collégial. Les enseignantes et les enseignants du réseau collégial ont recours aux ENA en tant que médias d’enseignement et d’apprentissage depuis plusieurs années, mais les données montrent des différences importantes dans leur préférence pour les différents outils disponibles. Si la remise des notes est la plus utilisée, d’autres fonctionnalités qui ont pourtant un fort potentiel pédagogique restent peu ou pas exploitées. Parmi les facteurs qui peuvent expliquer cette relative sous-exploitation des ENA, cet essai identifie un manque de ressources pour accompagner les enseignantes et les enseignants dans l’intégration d’un environnement numérique d’apprentissage (ENA) en enseignement hybride au collégial. Pour pallier ce manque, l’essai pose comme question de recherche : « Quelles sont les stratégies d’utilisation des fonctionnalités des environnements numériques d’apprentissage (ENA) à encourager pour l'exploitation optimale de leur potentiel pédagogique en contexte d’enseignement hybride au collégial »? Le but de cet essai est donc de proposer un ensemble de pratiques optimales exploitant de la manière la plus efficace possible les fonctionnalités des ENA en enseignement hybride dans le réseau collégial. Pour y arriver, le premier objectif est de recenser et de classer des pratiques pédagogiques utilisant ces fonctionnalités. Le deuxième objectif de l’essai est d’analyser les pratiques recensées selon un cadre de référence mis au point à partir de trois sources. La première est la métarecherche que Barrette (2011, 2009, 2005) réalise pour le compte de l’Association pour la recherche au collégial; la deuxième est le modèle de la motivation scolaire de Viau (2009) et la troisième est le modèle des « valeurs ajoutées » de l’équipe de Docqs, Lebrun et Smidts (2010). L’analyse des correspondances entre les pratiques recensées et les conditions posées comme des critères d’efficacité par le cadre de référence permet d’atteindre le troisième objectif de cet essai qui est de dégager des stratégies optimales d’utilisation. Axé sur le pôle de la recherche, cet essai procède par études de cas. Son corpus est constitué de 99 récits de pratiques publiés sur le site de Profweb. La sélection de ces récits s’est faite en effectuant des recherches par mots-clés pertinents dans l’ensemble des récits publiés. L’essai réalise l’analyse des récits à partir de 17 fonctionnalités et d’une dix-huitième situation correspondant à l’utilisation combinée de plusieurs fonctionnalités au sein d’un ENA. Une synthèse des pratiques recensées pour chacune des 18 fonctionnalités dégage un schème, c’est-à-dire un ensemble type de pratiques. L’examen des 18 schèmes de pratiques révèle que certains correspondent plus que d’autres aux critères d’efficacité fournis par le cadre de référence. Ainsi, les schèmes de pratiques rapportés par les auteurs de récits dans Profweb indiquent que l’utilisation de plusieurs fonctionnalités combinées au sein d’un ENA, ou l’utilisation des forums ou celle du portfolio satisfont mieux aux critères d’efficacité que l’utilisation du courriel ou que celle de la correction numérique. Les résultats de cet essai indiquent aussi qu’il y a dans les récits une prépondérance de pratiques pédagogiques inspirées du socioconstructivisme et que dans leur ensemble, ces pratiques sont centrées sur l’apprentissage et favorisent la motivation scolaire. Les récits étudiés indiquent aussi un haut niveau de satisfaction à l’égard des équipements informatiques utilisés. En même temps, ces récits font état fréquemment d’un manque d’expérience et d’un besoin de formation de la part des enseignantes et des enseignants. Pour satisfaire le besoin de formation mentionné dans les récits, l’essai propose des pratiques optimales en matière d’utilisation des fonctionnalités d’un ENA en enseignement hybride. Une pratique optimale consiste à identifier pour chacun des schèmes de pratique les critères d’efficacité pertinents dégagés du cadre d’analyse, critères effectivement pris en compte dans les récits ou qui auraient dû l’être. L’examen des récits de pratiques révèle aussi que les critères d’efficacité ne sont pas pris en compte simultanément et qu’il existe une feuille de route, une procédure dont chacune des étapes offre l’occasion de considérer certains critères plutôt que d’autres. L’essai suggère une séquence pour la prise en compte des critères d’efficacité lors de la planification et du déroulement d’une activité pédagogique exploitant des fonctionnalités d’ENA en enseignement hybride. La confection du répertoire des 18 pratiques optimales en matière d’utilisation pédagogique des fonctionnalités d’un ENA constitue un apport nouveau et utile pour répondre au besoin des enseignantes et des enseignants de se former à une utilisation stratégique de ces outils. Un tel répertoire peut constituer le coeur d’un guide de formation et d’intervention que les conseillères et conseillers technopédagogiques du réseau collégial utiliseront avec empressement.
Resumo:
La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
L'école d'hier faisait de la grammaire et de l'analyse un usage prépondérant dans l'apprentissage de la langue. Une longue série de règles appliquées dans des exercices structurés préparait une certaine élite d'étudiants à "faire leurs humanités". Le temps passe, les choses évoluent, la grammaire se transforme. Lorsque nous avons commencé à enseigner au niveau élémentaire, les cours de grammaire et d'analyse ne différaient pas tellement de ceux des générations antérieures. Puis vinrent les années '70. Un programme cadre est instauré. Les maîtres endossent la responsabilité de la méthode utilisée et de son application. Une période d'instabilité se creuse, dont les élèves sont les plus grandes victimes. Nous atteignons la période critique où l'on constate que peu d'enfants maîtrisent leur orthographe d'usage à la fin de leur cours primaire. À qui imputer la faute? Devons-nous revenir à un enseignement systématique de la grammaire? Cette période nous aura permis de constater l'inefficacité de nos leçons traditionnelles en vue d'acquisitions orthographiques chez nos enfants; préférence accordée à l'induction des règles grammaticales usuelles; élimination des connaissances grammaticales inutiles aux besoins immédiats des élèves. Telle Tut notre option en ce qui concerne la grammaire. Mais que dire de l'analyse logique? […]
Resumo:
En 2008, le Québec fait son entrée dans le marché du livre numérique. Cette année-là, l’Association nationale des éditeurs de livres du Québec (ANEL) s’associe avec l’entreprise De Marque pour créer l’Entrepôt numérique (www.entrepotnumerique.com), une plateforme de diffusion et de distribution de livres numériques québécois. Sa structure permet de stocker et de gérer les fichiers numériques, tout en offrant aux éditeurs une interface personnalisée afin que chacun puisse commercialiser ses titres en quelques étapes simples. Dès le départ, les instigateurs de ce projet font le pari de mettre en place une infrastructure de diffusion-distribution propre aux Québécois et qui répond à l’internationalisation du marché du livre. Mais les enjeux sont nombreux pour les professionnels du système-livre du Québec qui tentent de s’adapter aux nouvelles structures et de se frayer un chemin dans la sphère numérique. À la fois d’ordre technologique, économique et culturel, ces enjeux posent la double question de la commercialisation d’une nouvelle forme de livre et de la présence de la culture québécoise sur le web. En effet, face à la multiplication des titres et devant l’espace infini de la Toile, comment assurer la circulation et la promotion du livre numérique ? Comment adapter les circuits traditionnels à un nouveau format de livre qui se distingue de la forme fixe du livre imprimé que l’on connaît ? Et comment, surtout, la culture québécoise peut-elle prendre place auprès de géants internationaux comme Amazon, Google ou Apple ? Ayant précisément pour mandat d’offrir une solution de diffusion numérique simple et efficace aux éditeurs québécois et canadiens-français, l’Entrepôt numérique distribue la production de 148 éditeurs, donnant ainsi aux lecteurs un accès à un catalogue mutualisé comptant 17 144 publications. Plus de 750 000 livres numériques ont été vendus depuis 2009 et de nombreuses ententes de partenariat ont été signées avec 194 revendeurs provenant de 58 pays. Or, en assurant la circulation et la commercialisation des titres dans l’espace numérique, l’Entrepôt numérique participe à la mutation du secteur de la diffusion-distribution au Québec. Il illustre ainsi les évolutions techniques, économiques et structurelles du marché. S’intéresser à l’Entrepôt numérique comme objet d’étude, c’est donc s’intéresser aux enjeux (technologiques, culturels, économiques) pouvant se dégager des nouvelles stratégies de circulation et de commercialisation du livre numérique implantées au sein de la filière québécoise. Trois chapitres composent ce mémoire. Le premier propose un historique de l’Entrepôt numérique. En décrivant à la fois les enjeux de départ, les acteurs impliqués et l’évolution de la plateforme, il permet de situer les conditions culturelles, commerciales et éditoriales ayant permis le développement de cette plateforme. Le deuxième chapitre, qui examine les mécanismes de distribution via l’Entrepôt numérique, met en lumière les différents jalons qui marquent le passage de la distribution traditionnelle à la distribution du livre numérique. Enfin, le troisième chapitre porte sur les mécanismes de diffusion du livre numérique de la plateforme et illustre ainsi les nouvelles conditions de promotion du livre dans la sphère numérique. En somme, la présentation de l’historique de l’Entrepôt numérique et l’examen des mécanismes de diffusion et de distribution de la plateforme permettent d’offrir une meilleure préhension des transformations et enjeux émanant de l’industrie du livre numérique au Québec, entre 2007 et 2015.
Resumo:
Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.
Resumo:
Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).
Resumo:
La vitesse des ondes de cisaillement est généralement mesurée en laboratoire en utilisant des éléments piézoélectriques comme les bender elements (BE). Cependant, ces techniques présentent certains problèmes au niveau de l’émission à la fois des ondes primaires et de cisaillement, les effets de champ proche, les effets de bords, et l’incertitude au niveau de l’interprétation du signal. Une nouvelle technique, baptisée technique des anneaux piézoélectriques (P-RAT) a été développée dans le laboratoire géotechnique de l'Université de Sherbrooke afin de minimiser / éliminer les difficultés associées aux autres techniques, en particulier, la pénétration des échantillons, obligatoire pour la technique BE. Cette étude présente une description de la technique P-RAT ainsi que les résultats des simulations numériques réalisées avec le code informatique COMSOL afin d'étudier l'interaction entre les composantes du P-RAT et l'échantillon testé (sol ou solide). L’étude démontre l’efficacité du concept de la méthode P-RAT et présente des modifications pour améliorer la fiabilité et la performance de la méthode P-RAT afin d’étendre son applicabilité dans le domaine du génie civil. L’implémentation de la dernière génération de P-RAT dans une cellule triaxiale et une autre œdométrique était l’aboutissement de cette étude.
Resumo:
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
Resumo:
La construction des biosystèmes d’oxydation passive du méthane (BOPM) est une option économique et durable pour réduire les émissions de méthane des sites d’enfouissement de déchets et des effets subséquents du réchauffement climatique. Les BOPM sont constitués de deux couches principales: la couche d'oxydation du méthane (MOL) et la couche de distribution du gaz (GDL). L'oxydation du méthane se produit dans la MOL par les réactions biochimiques des bactéries méthanotrophes, et la GDL est construite sous la MOL pour intercepter et distribuer les émissions fugitives de biogaz à la base de la MOL. Fondamentalement, l'efficacité d'un BOPM est définie en fonction de l'efficacité d'oxydation du méthane dans la MOL. Par conséquent, il est indispensable de fournir des conditions adéquates pour les activités bactériennes des méthanotrophes. En plus des paramètres environnementaux, l'intensité et la distribution du biogaz influencent l'efficacité des BOPM, et ils peuvent rendre le matériau de la MOL - avec une grande capacité d'accueillir les activités bactériennes - inutilisables en termes d'oxydation du méthane sur place. L'effet de barrière capillaire le long de l'interface entre la GDL et la MOL peut provoquer des émissions localisées de méthane, due à la restriction ou la distribution non uniforme de l’écoulement ascendant du biogaz à la base de la MOL. L'objectif principal de cette étude est d'incorporer le comportement hydraulique non saturé des BOPM dans la conception des BOPM, afin d’assurer la facilité et la distribution adéquates de l'écoulement du biogaz à la base de la MOL. Les fonctions de perméabilité à l'air des matériaux utilisés pour construire la MOL des BOPM expérimentaux au site d’enfouissement des déchets de St Nicéphore (Québec, Canada), ainsi que celles d'autres de la littérature technique, ont été étudiés pour évaluer le comportement d'écoulement non saturé du gaz dans les matériaux et pour identifier le seuil de migration sans restriction du gaz. Ce dernier seuil a été introduit en tant que un paramètre de conception avec lequel le critère de conception recommandé ici, c’est à dire la longueur de la migration sans restriction de gaz (LMSG), a été défini. La LMSG est considérée comme la longueur le long de l'interface entre la GDL et la MOL où le biogaz peut migrer à travers la MOL sans restriction. En réalisant des simulations numériques avec SEEP/W, les effets de la pente de l'interface, des paramètres définissant la courbe de rétention d'eau, de la fonction de la conductivité hydraulique du matériau de la MOL sur la valeur de la LMSG (représentant la facilité d'écoulement du biogaz à l'interface) et de la distribution de l'humidité (et par conséquent celle du biogaz) ont été évalués. Selon les résultats des simulations, la conductivité hydraulique saturée et la distribution des tailles de pores du matériau de la MOL sont les paramètres les plus importants sur la distribution de l'humidité le long de l'interface. Ce dernier paramètre influe également sur la valeur du degré de saturation et donc la facilité du biogaz à la base de la MOL. La densité sèche du matériau de MOL est un autre paramètre qui contrôle la facilité d'écoulement ascendant du biogaz. Les limitations principales de la présente étude sont associées au nombre de matériaux de MOL testés et à l'incapacité de SEEP/W de considérer l'évapotranspiration. Toutefois, compte tenu des hypothèses raisonnables dans les simulations et en utilisant les données de la littérature, on a essayé de réduire ces limitations. En utilisant les résultats des expériences et des simulations numériques, des étapes et des considérations de conception pour la sélection du matériau de MOL et de la pente d'interface ont été proposées. En effet,le comportement hydraulique non saturé des matériaux serait intégré dans les nécessités de conception pour un BOPM efficace, de sorte que la capacité maximale possible d'oxydation du méthane du matériau de la MOL soit exploitée.
Resumo:
Nous avons dirigé cet essai sur la conception et le développement d’un dispositif de formation en ligne, selon une approche par compétences au collégial, dans le cadre du cours crédité Éclairages et rendus 2 du programme Techniques d’animation 3D et synthèse d’images. Nous avons commencé en présentant le programme Techniques d’animation 3D et synthèse d’images du Cégep Limoilou, le cours Éclairages et rendus 2 et l’épreuve synthèse de programme (ESP) qui se rattache au programme. Nous avons également défini l’utilisation actuelle des technologies de l’information et de la communication (TIC) et des environnements numériques d’apprentissage (ENA) dans le programme et nous avons déterminé les modalités de cours au collégial. Ensuite, en l’absence de formation en ligne au Cégep Limoilou, nous avons exposé les raisons qui nous ont mené à concevoir et à développer un dispositif de formation en ligne pour le cours Éclairages et rendus 2. Nous avons identifié les problèmes, entre autres reliés aux politiques institutionnelles, à la convention collective et au manque de disponibilité des locaux. Ce manque de disponibilité des locaux limite le temps de pratique des étudiantes et étudiants, limite l’accessibilité aux logiciels et nuit à l’implantation de l’alternance travail-études (ATE) dans le programme Techniques d’animation 3D et synthèse d’images. La conception d’un dispositif de formation en ligne pour le cours Éclairages et rendus 2 permettrait de libérer des heures de laboratoire et faciliterait le processus d’adhésion à l’ATE. À partir de l’objectif général, nous avons construit le cadre de référence permettant de positionner les fondements de cet essai. Nous avons débuté en démystifiant la formation à distance et en définissant le concept d’ingénierie pédagogique, particulièrement le modèle ADDIE. Ensuite, nous avons clarifié la nature et les caractéristiques des ENA et défini l’approche par compétences. Nous avons terminé en définissant les objectifs spécifiques. L’approche méthodologique retenue dans le cadre de cet essai est une approche qualitative. Nous avons choisi une posture interprétative en accordant de l’importance à la compréhension et l’interprétation des résultats (Fortin, 2010). Cet essai est basé sur une recherche développement qui s’inscrit dans le pôle de l’innovation visant à développer du matériel technopédagogique. Les résultats démontrent que les étudiantes et les étudiants ont apprécié le dispositif d’apprentissage. L’ENA s’est avéré un outil familier pour les étudiantes et les étudiants, car ils utilisent quotidiennement l’ordinateur dans leurs fonctions de travail. L’expérimentation du dispositif a permis de recueillir des résultats qui ont été compilés, analysés et comparés dans le but d’améliorer le dispositif de formation en ligne. Nous avons corroboré les données à l’aide de deux méthodes de collecte de données, soit le journal du chercheur et le questionnaire à questions ouvertes et fermées. Pour les pistes futures, il serait intéressant de valider le dispositif de formation en ligne auprès d’un plus grand échantillon en ne se limitant pas uniquement à des étudiantes ou étudiants du programme de Techniques d’animation 3D et synthèse d’images. Il serait également intéressant de mettre en place un dispositif couvrant l’ensemble des 15 semaines de la session et de faire une mise à l’essai à plus d’une reprise. Enfin, une avenue intéressante serait de concevoir un dispositif plus universel et adapté à d’autres cours du programme et à d’autres programmes de formation collégiale et universitaire pouvant servir de guide plus général à la création d’une formation en ligne adaptée à une approche par compétences.
Resumo:
Les réponses des sols aux diverses sollicitations qu'ils subissent à l'état naturel sur site sont multiples et dépendent de nombreux facteurs tel que leur nature, le domaine de sollicitation, la présence d'eau et plusieurs autres facteurs (état de contrainte, présence de cavités, etc.). La connaissance du domaine des petites et moyennes déformations pour le dimensionnement de nombreux ouvrages sur des dépôts de sols argileux ou sableux est d'une grande importance. La détermination des propriétés mécaniques des sols dans le domaine des petites déformations est néanmoins importante dans plusieurs applications en géotechnique. Le besoin de déterminer le module de cisaillement des sols à faibles déformations a conduit au développement de différents outils d'investigation.Les outils non intrusifs basés sur la propagation des ondes de surface permettent de s'affranchir des problèmes de remaniement du sol et la détermination des paramètres fondamentaux (G[indice inférieur max]) du sol dans leur vrai état des contraintes. L'étude menée dans ce travail se résume essentiellement en deux volets. Une présentation détaillée, des différentes méthodes et techniques qui déterminent la vitesse d'onde de cisaillement V[indice inférieur s] lors de la caractérisation des sols, est faite en premier stade. On se focalise à décrire le dispositif des bilames piézo-électriques (utilités, avantages et limitations). En second volet, on se consacre sur la caractérisation des sols granulaires au moyen de V[indice inférieur s]. Des simulations numériques illustrées par des essais aux laboratoires sur un modèle simplifié de la cellule oedométrique équipée du dispositif des anneaux piézo-électriques, ont été dirigés. En considérant trois sols pulvérulents de différentes propriétés granulométriques, on a pu voir les difficultés d'interprétation des résultats suivant les méthodes directes dans le domaine temporel. Alors que, des résultats traités dans le domaine fréquentiel se sont avérés plus réalistes.