718 resultados para Intuitive
Resumo:
We provide a systematic treatment of the notion of economic insecurity, assuming that an individual’s sentiment of insecurity depends on the current wealth level and its variations experienced in the past. We think of wealth as a comprehensive variable encompassing anything that may help in coping with adverse occurrences. The current wealth level could also be interpreted as incorporating the individual’s evaluation of future prospects. Variations in wealth experienced in the recent past are given higher weight than experiences that occurred in the more distant past. Two classes of measures are characterized with sets of plausible and intuitive axioms.
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
La réflexion sur l’intégration au travail des nouvelles enseignantes touche de plus en plus la communauté des chercheurs en éducation. Avec la valorisation de la pratique réflexive, l’enseignante se voit plus que par le passé autorisé à exercer une grande liberté d’action dans son travail, ainsi qu’une grande autonomie en ce qui à trait à l’exécution de sa tâche. Cette liberté peut être lourde à porter, surtout lorsqu’on entre dans le métier. Aussi, pour soutenir cette liberté et la diriger, la référence aux valeurs demeure fondamentale. Dans le présent mémoire, nous tentons d’en savoir plus sur les valeurs qui animent ces nouvelles venues, et comment celles-ci les aident à vivre leur intégration et à concevoir leur place dans le métier. La cueillette des données effectuée à partir de leurs réflexions, souvent profondes, sur les valeurs personnelles, les valeurs au travail et le rapport au métier, permet une analyse du discours basée sur le ressenti et l’expérience. C’est en puisant dans les thèses de la modernité et de la postmodernité, toutes deux parlantes quant à l’époque actuelle, que nous tentons de mieux cerner et induire les valeurs propres aux enseignantes ayant participé à notre étude phénoménologique de type exploratoire. Grâce à l’analyse de contenu, nous sommes à même de constater que malgré une ligne de partage présente entre certaines valeurs dites modernes et postmodernes, il n’en demeure pas moins qu’une tendance se dessine : nos nouvelles enseignantes désirent être fidèles d’abord et avant tout à elles-mêmes, même si cela implique l’abandon du métier qu’elles envisagent toutes comme une possibilité, sans exception. Cela en dit long sur leurs priorités et leurs valeurs au travail. Il est clair qu’elles travaillent de manière à se sentir authentiques, toujours avec le souci de savoir s’adapter aux nouvelles situations. Cependant, même si certaines d’entre elles trouvent plus ardu de s’adapter à une demande en matière de flexibilité professionnelle à la hausse, il n’en demeure pas moins que la flexibilité au travail est un élément désormais bien intégré à l’habitus professionnel des enseignantes pratiquant depuis dix ans et moins. Si postmodernes que ça nos nouvelles enseignantes? Oui.
Resumo:
Dans cet article je considère un récent défi à l’égalitarisme développé par Michael Huemer. Le challenge de Huemer prend la forme d’un dilemme : les égalitaristes peuvent être soit atomistes soit holistes en ce qui concerne la valeur de l’égalité. S’ils sont atomistes, alors ils doivent acceptés que l’égalité n’ait pas de valeur intrinsèque ; s’ils sont holistes, alors leur point ce vue est inconsistant avec une intuitive mais très plausible forme de conséquentialisme. Je montre que ce dilemme ne doit pas perturber les égalitaristes. Ils peuvent être holistes en ce qui concerne la valeur et adhérer en même temps au conséqeuntialisme.
Resumo:
RÉSUMÉ: Selon Kant, il faut rendre la Critique plus compréhensible. Cela revient à doter son exposition d’un plus haut degré de lucidité (Helligkeit), c’est-à-dire combiner la clarté discursive avec une clarté intuitive. Pour ce faire, nous représentons les grandes lignes de la structure discursive de la Critique sous la forme d’un modèle emprunté à la description de la formation du caractère moral esquissé dans l’Anthropologie. Ainsi, la raison est d’abord régie par son « instinct de connaissance » (Wißbegierde, Erkenntnistrieb), qui la plonge dans un état de vacillement (Schwankender Zustand). Ensuite, elle réagit par du dégoût (Überdruß), ce rejet ouvrant la voie à l’introspection (Selbsterkenntnis) proprement critique. La raison entreprend alors une révolution de son mode de pensée spéculatif (Revolution der Denkungsart) consistant à passer, sous l’égide du devoir moral (Pflicht), de la malhonnêteté à l’honnêteté, envers soi-même ainsi qu’envers autrui. Il s’agit, en un mot, d’une « renaissance » (Wiedergeburt) morale.
Resumo:
In many economic environments - such as college admissions, student placements at public schools, and university housing allocation - indivisible objects with capacity constraints are assigned to a set of agents when each agent receives at most one object and monetary compensations are not allowed. In these important applications the agent-proposing deferred-acceptance algorithm with responsive priorities (called responsive DA-rule) performs well and economists have successfully implemented responsive DA-rules or slight variants thereof. First, for house allocation problems we characterize the class of responsive DA-rules by a set of basic and intuitive properties, namely, unavailable type invariance, individual rationality, weak non-wastefulness, resource-monotonicity, truncation invariance, and strategy-proofness. We extend this characterization to the full class of allocation problems with capacity constraints by replacing resource- monotonicity with two-agent consistent con ict resolution. An alternative characterization of responsive DA-rules is obtained using unassigned objects invariance, individual rationality, weak non-wastefulness, weak consistency, and strategy-proofness. Various characterizations of the class of "acyclic" responsive DA-rules are obtained by using the properties efficiency, group strategy-proofness, and consistency.
Resumo:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Resumo:
Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.
Resumo:
Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.
Resumo:
INTRODUCTION : Le raisonnement clinique est au coeur de l’exercice professionnel. Cependant, nous manquons d'instruments pour identifier et objectiver les difficultés de raisonnement clinique, et il existe relativement peu de descriptions de méthodes de remédiation définies. Un important travail reste donc à faire, pour mieux comprendre comment les difficultés se manifestent dans le raisonnement clinique des étudiants en formation, mais également pour rendre ces concepts plus accessibles aux enseignants; ceci permettra alors d’améliorer la qualité de la démarche d’identification des difficultés, et d’envisager des remédiations ciblées et efficaces. OBJECTIFS : Cette recherche s’articule d’une part, autour de l’objectivation et la compréhension des pratiques actuelles des cliniciens enseignants en médecine, d’autre part, autour de la construction et l’implantation d’outils et de processus susceptibles de faciliter la démarche de diagnostic et de remédiation des difficultés de raisonnement clinique. MÉTHODOLOGIE : Une recherche de type qualitative, utilisant les méthodes de la recherche action participative s’est révélée pertinente pour atteindre nos objectifs. La recherche est composée de quatre étapes : 1. Une étude exploratoire. 2. La construction et de l’implantation d’un premier outil dans trois milieux cliniques en médecine familiale. 3. L’élaboration d’une taxonomie des difficultés de raisonnement clinique ainsi que la construction d’un nouvel outil. 4. Le développement d’une approche globale pour soutenir et former les cliniciens enseignants. RÉSULTATS : Les enseignants ont une perception rapide, mais qui demeure globale et intuitive, des potentielles difficultés de raisonnement clinique des résidents. Cette perception ne se traduit pas forcément en termes pédagogiques. Nous avons pu observer l’absence de processus pédagogiques organisés et structurés pour la gestion de ces difficultés. Ceci semble projeter les cliniciens enseignants dans une zone d’inconfort, en les confrontant à un manque de maîtrise et à l’incertitude au sujet de leurs actions pédagogiques. La catégorisation des difficultés de raisonnement clinique que nous avons construite permet d’identifier les difficultés telles qu’elles se manifestent dans le quotidien des supervisions cliniques. Cet outil a cependant besoin d’être intégré dans un processus plus global. CONCLUSION : Une approche globale qui comprenne le développement de processus implantés par le Département, l’implantation d’outils, la vulgarisation de la théorie, et la formation des enseignants est déterminante.
Resumo:
L’industrie publicitaire est un travail quotidien de collaboration entre deux « hémisphères » distincts : l’un de nature commercial et l’autre de nature créatif. Des individus qui favorisent des aspects logiques et rationnels se doivent de collaborer avec des individus qui favorisent des aspects intuitifs et artistiques, ce qui suscite des tensions. Cette mise en relation s’opère au travers d’un processus, que nous nommerons processus de design visuel communicationnel car il permet de relier la communication au design, approche que nous adoptons dans ce mémoire. L’industrie publicitaire s’est dotée d’outils permettant de faciliter le processus de design visuel communicationnel, dont le brief créatif. Notre recherche propose d’observer la manière dont les « commerciaux » et les « créatifs » perçoivent leur travail quotidien en agence et comment le brief créatif est réquisitionné. Nous adoptons une posture interprétative pour tenir compte de la complexité du phénomène et nous mobilisons une série d’entrevues pour répondre à nos questions de recherche. Nos questions de recherche sont les suivantes : de quelle manière les « commerciaux » et les « créatifs » négocient-ils les tensions lors du processus de design visuel communicationnel? Quels rôles le brief créatif occupe-t-il au sein de ce processus? Les résultats nous renseignent sur les transformations et les innovations qui émergent des tensions entre les « commerciaux » et les « créatifs » et sur l’importance que revêtent les caractéristiques communicationnelles du brief créatif dans le cadre du processus de design visuel communicationnel.
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Si le rapport entre Derrida et Bergson n’a pas fait l’objet de nombreuses études, les commentaires existants témoignent à peu près tous d’une vision commune : entre les deux philosophes, les divergences peuvent être atténuées, voire dissoutes, par la considération de convergences plus fondamentales. Les pages qui suivent seront l’occasion pour nous de faire contrepoids à cette vulgate interprétative. Sans nier l’existence de points de contact entre Derrida et Bergson, nous voudrions en effet montrer qu’un important désaccord subsiste entre eux au sujet de la possibilité de l’intuition. Alors que Derrida met en cause les doctrines intuitionnistes, Bergson érige l’intuition en méthode philosophique. Le présent mémoire prendra pour fil conducteur les motifs de cette discorde. Réduit à sa plus simple expression, l’objectif que nous y poursuivrons sera de montrer que les pensées bergsonienne et derridienne, lorsque mises en dialogue, révèlent un désaccord partiel qui permet de réfléchir de façon féconde sur la possibilité de l’intuition. Pour être plus exact, nous caresserons ici une triple ambition : i/ cerner étroitement l’objet du litige entre Derrida et Bergson, trop peu souligné par les commentateurs, et dont nous montrons qu’il s’articule à une entente partielle ; ii/ tirer au clair les diverses raisons qui amènent l’un à s’en prendre à l’intuition, l’autre à embrasser la méthode intuitive ; iii/ établir que certains arguments de Bergson, bien qu’ils connaissent un regain d’intérêt depuis quelques années, paraissent lacunaires lorsqu’on les confronte à différentes objections.
Resumo:
Ce mémoire porte sur les intuitions utilisées en philosophie morale contemporaine. Les intuitions sont interrogées sur trois aspects : leur nature, leur fiabilité et leur rôle. Concernant la nature des intuitions, celles-ci sont présentées comme des jugements spontanés ayant une valeur épistémique « à première vue ». Concernant la fiabilité des intuitions, trois grands types de raisons de douter de leur fiabilité sont considérés, à savoir les résultats de certaines études scientifiques montrant de diverses manières leur instabilité, les études réalisées par le mouvement de philosophie expérimentale afin d'illustrer le phénomène du désaccord intuitif, et enfin, le problème de l'origine douteuse des intuitions. Aucune de ces raisons n'est jugée efficace afin de discréditer l'usage des intuitions en philosophie. Concernant le rôle des intuitions, une distinction est proposée entre deux grands types d'usage philosophique contemporain. D'une part, ce qu'on peut appeler la méthodologie standard en philosophie morale contemporaine consiste en une combinaison d’expériences de pensée et de la méthode de l’équilibre réfléchi. Différentes manières d'aborder la méthode de l'équilibre réfléchi sont présentées, et le modèle de l'équilibre réfléchi large développé par Norman Daniels est jugé le plus efficace. D'autre part, les intuitions sont parfois utilisées en philosophie morale contemporaine dans le cadre de la théorie de l'intuitionnisme éthique. La théorie est défendue contre diverses objections, et elle est montrée compatible avec la méthode de l’équilibre réfléchi.