10 resultados para Garbage disposal
em Université de Montréal, Canada
Resumo:
Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Les risques liés à l’environnement immédiat, notamment le manque d’accès à l’eau potable, à l’assainissement, à un logement décent et à un milieu de vie sain constituent un des facteurs à l’origine de la mauvaise santé des enfants de moins de cinq ans dans les pays en développement. Les objectifs principaux poursuivis dans cette recherche sont de mesurer l’influence de ces risques de l’environnement immédiat sur la prévalence des symptômes des troubles oculaires et celle des symptômes des troubles cutanés chez les enfants de moins de cinq ans à Ouagadougou et de rechercher les autres déterminants sous-jacents de la prévalence de ces symptômes dans cette ville. Nous utilisons les données de l’enquête réalisée en février 2010 sur l’état de santé et le comportement sanitaire associé aux maladies et symptômes récents et les données sur les événements démographiques et sur les conditions de vie des ménages collectées en mai 2009 durant le round 1 de l’enquête ménage. L’échantillon de l’étude est constitué de 950 enfants issus de 736 ménages sélectionnés aléatoirement dans cinq quartiers périphériques de la ville de Ouagadougou. Nous avons recouru à l’analyse descriptive fondée sur les tableaux croisés et les tests du chi-2, et à l’analyse de la régression logistique multivariée ayant permis d’étudier les risques relatifs de la survenue desdits symptômes. L’analyse descriptive montre que certaines variables de l’environnement immédiat, en l’occurrence le mode d’évacuation des ordures ménagères, le type de toilette utilisé le plus souvent par la plupart des membres du ménage et le type de quartier de résidence, sont associés à la prévalence des troubles oculaires. Mais une analyse approfondie à l’aide de la régression logistique multivariée n’a confirmé que l’effet du type de quartier de résidence. Concernant la prévalence des symptômes des troubles cutanés, en analyse bi-variée, les variables de l’environnement immédiat qui y sont associées sont la nature du sol intérieur et le mode d’évacuation des eaux usées. L’analyse multivariée semble confirmer les effets de ces variables. Nous avons relevé quelques limites des données utilisées, notamment la faible taille de l’échantillon, la non-confirmation par voie médicale des données sanitaires et le caractère transversal desdites données. Toutefois, les résultats trouvés pourront être utiles aux planificateurs et décideurs qui ont la charge de la gestion de l’espace urbain dans le but de mieux concevoir de nouvelles politiques urbaines mettant l’accent sur la restructuration des quartiers précaires afin de mieux combattre les maladies évitables. En conclusion, en tenant compte des limites relevées, il serait utile de procéder à d’autres investigations afin de tirer des conclusions moins sujettes à débat du point de vue méthodologique.
Resumo:
Introduction & Objectifs : Pour assurer l’analgésie postopératoire, l’anesthésiste dispose, en plus des différentes classes de médicaments administrés par voie orale ou intraveineuse, de diverses techniques pour bloquer l’influx nerveux douloureux en administrant les anesthésiques locaux (AL) de manière centrale ou périphérique. La ropivacaïne (ROP), un AL à longue durée d’action, est un médicament de première intention partout dans le monde, en raison de sa grande efficacité et de son faible risque de toxicité. Contrairement à certains pays, la ROP n'est toujours pas indiquée au Canada pour la rachianesthésie (bloc central) en raison d'un manque de données probantes. Jusqu'à présent, les efforts de recherche ont essentiellement porté sur la sécurité ainsi que sur la durée d’action du médicament lorsqu’administré par voie spinale. De plus, les doses optimales de ROP pour l’anesthésie régionale périphérique ne sont pas encore précisément connues. La posologie devrait être adaptée au site d’administration ainsi qu’à l’intensité et la durée du stimulus produit par la chirurgie. Ultimement, cela permettrait aux cliniciens d’identifier le régime optimal en fonction des facteurs démographiques qui pourraient affecter la pharmacocinétique (PK) et la pharmacodynamie (PD) de l’AL (objectif global de ces travaux). Validation de la Méthode Analytique Manuscrit 1 : Une méthode analytique spécifique et sensible permettant de déterminer les concentrations plasmatiques de ROP a d’abord été optimisée et validée. Validation du Biomarqueur Manuscrit 2 : Nous avons ensuite mis au point et évalué la fiabilité d’une méthode quantitative basée sur la mesure du seuil de perception sensorielle (CPT) chez le volontaire sain. Ce test nécessite l’application d’un courant électrique transcutané qui augmente graduellement et qui, selon la fréquence choisie, est capable de stimuler spécifiquement les fibres nerveuses impliquées dans le cheminement de l’influx nerveux douloureux. Les résultats obtenus chez les volontaires sains indiquent que la mesure CPT est fiable, reproductible et permet de suivre l’évolution temporelle du bloc sensitif. Études cliniques Manuscrit 3 : Nous avons ensuite caractérisé, pendant plus de 72 h, l’absorption systémique de la ROP lorsqu’administrée pour un bloc du nerf fémoral chez 19 patients subissant une chirurgie du genou. Le modèle PK populationnel utilisé pour analyser nos résultats comporte une absorption biphasique durant laquelle une fraction de la dose administrée pénètre rapidement (temps d’absorption moyen : 27 min, IC % 19 – 38 min) dans le flux sanguin systémique pendant que l’autre partie, en provenance du site de dépôt, est redistribuée beaucoup plus lentement (demi-vie (T1/2) : 2.6 h, IC % 1.6 – 4.3 h) vers la circulation systémique. Une relation statistiquement significative entre l’âge de nos patients et la redistribution de l’AL suggère que la perméabilité tissulaire est augmentée avec l’âge. Manuscrit 4 : Une analyse PK-PD du comportement sensitif du bloc fémoral (CPT) a été effectuée. Le modèle développé a estimé à 20.2 ± 10.1 mg la quantité de ROP nécessaire au site d’action pour produire 90 % de l’effet maximal (AE90). À 2 X la AE90, le modèle prédit un début d’action de 23.4 ± 12.5 min et une durée de 22.9 ± 5.3 h. Il s’agit de la première étude ayant caractérisé le comportement sensitif d’un bloc nerveux périphérique. Manuscrit 5 : La troisième et dernière étude clinique a été conduite chez les patients qui devaient subir une chirurgie du genou sous rachianesthésie. Tout comme pour le bloc du nerf fémoral, le modèle PK le plus approprié pour nos données suggère que l’absorption systémique de la ROP à partir du liquide céphalo-rachidien est biphasique; c.à.d. une phase initiale (T1/2 : 49 min, IC %: 24 – 77 min) suivie (délai: 18 ± 2 min) d'une phase légèrement plus lente (T1/2 : 66 min, IC %: 36 – 97 min). L’effet maximal a été observé beaucoup plus rapidement, soit aux environs de 12.6 ± 4.9 min, avant de revenir aux valeurs de base 210 ± 55 min suivant l’administration de l’agent. Ces données ont permis d’estimer une AE50 de 7.3 ± 2.3 mg pour l'administration spinale. Conclusion : En somme, ces modèles peuvent être utilisés pour prédire l’évolution temporelle du bloc sensitif de l’anesthésie rachidienne et périphérique (fémorale), et par conséquent, optimiser l’utilisation clinique de la ROP en fonction des besoins des cliniciens, notamment en ce qui a trait à l’âge du patient.
Resumo:
À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.
Resumo:
Les processus de la mise en scène reposent nécessairement sur une réalité humaine complexe, faite de dialogues et de rapports de force en constante redéfinition. Afin de les théoriser, plusieurs travaux ont institué en corpus les documents produits en cours de réunion ou de répétition, pour leur appliquer les méthodes issues de la génétique des textes. Or le transfert s’avère problématique : vestiges lacunaires, ces supports ne sauraient témoigner à eux seuls de la vie organique et polyphonique de la mise en scène en gestation. Une première solution consiste à opter pour une approche radicalement intermédiale des archives d’un spectacle : dans la mesure où la mise en scène fait interagir plusieurs disciplines artistiques, pourquoi ne pas la penser en confrontant activement les différents media générés lors de son élaboration ? Complémentaire de la première, une seconde proposition suppose que le chercheur s’implique dans une observation in vivo de réunions et de répétitions afin de disposer d’une matière plus complète. À cette clarification épistémologique succède un essai de théorisation des processus de la création scénique. Il apparaît tout d’abord que l’espace de travail est aussi bien un contenant physique de la recherche des artistes qu’un catalyseur : c’est en se l’appropriant à plusieurs qu’un groupe de collaborateurs donne corps à la mise en scène. L’espace de création révèle par là même une dimension polyphonique que l’on retrouve sur le plan du temps : dans la mesure où il engage un ensemble d’artistes, un processus ne possède pas de linéarité chronologique homogène ; il se compose d’une multitude de temporalités propres à chacun des répétants, qu’il s’agit de faire converger pour élaborer un spectacle commun à tous. Les processus de la mise en scène se caractérisent ainsi par leur dimension fondamentalement sociale. Réunie dans un espace-temps donné, la petite société formée autour du metteur obéit à un mode de création dialogique, où les propositions des uns et des autres s’agrègent pour former un discours foisonnant dont la force et l’unité sont garanties par une instance surplombante.
Resumo:
Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.