986 resultados para philosophie des mathématiques
Resumo:
Ce texte constitue la version élargie du document soumis à la revue Argus.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
La tradition sociologique oppose généralement deux thèses : individualiste et holiste. Ces caractérisations laissent entendre que la première thèse s’attarde à l’action des individus pour expliquer la société. Ce style s’est développé surtout en Allemagne grâce à Max Weber. La thèse holiste prend une position plus globale en expliquant la société par des faits sociaux. Celle-ci est dite française par l’entremise du père de la sociologie, Émile Durkheim. Pourtant, plusieurs auteurs français ont snobé la tradition allemande pour ramener à l’avant-scène un compatriote qui s’est opposé à Durkheim : Gabriel Tarde. Ces réintroductions ont été produites pour s’opposer aux thèses durkheimiennes qui laisseraient l’individu victime du contexte social dans lequel il se trouve. La sociologie allemande propose déjà une opposition de ce type avec les théories postulant un objet réel et particulier à la sociologie. Pourquoi réintroduire un auteur disparu en sociologie pour prendre la place d’autres qui sont encore là? L’hypothèse serait que Tarde propose un individualisme différent qui se traduirait par une notion d’individu particulière. L’étude comparative du corpus durkheimien et tardien révèle pourtant que ces deux auteurs partagent la plupart des caractéristiques associées à la définition du sens commun de l’individu. L’opposition entre Durkheim et Tarde ne relève pas de la place de l’individu dans la science sociale, mais d’une interprétation différente de certains aspects de la théorie statistique. Ces théories sociales ont été construites grâce à cette notion ce qui laisse penser que certains des problèmes explicatifs de ces dernières pourraient être liés à cette base.
Resumo:
Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.
Resumo:
Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.
Resumo:
Le domaine des énergies est au cœur des préoccupations technologiques, politiques et économiques de notre société moderne. Ce domaine nécessite une compréhension minimale du concept scientifique de l’énergie. Elle est selon nous essentielle à toute formation citoyenne. Nous avons dans un premier temps, à partir de considérations théoriques et pratiques, examiné pourquoi ce domaine si important dans notre société technologique est si peu abordé dans le cursus scolaire québécois? Pourquoi se contente-t-on d’un enseignement théorique et discursif de ce concept? Pourquoi, au contraire de tout enseignement scientifique, n’a-t-on pas envisagé de situations d’apprentissages en laboratoire pour l’étude des énergies? Dans un deuxième temps, nous avons proposé une idée de solution concrète et réaliste pour répondre à l’ensemble de ces questions. Une solution qui invite les élèves à s’investir de manière constructive dans des activités de laboratoire afin de s’approprier ces concepts. Pour ce faire, nous avons conçu des variables globales énergies qui ont permis aux élèves de les mesurer et d’expérimenter facilement des transformations énergétiques. Cette recherche de développement technologique en éducation consiste donc à profiter des nouveaux développements technologiques de l’informatique et de la micro-électronique pour concevoir, réaliser et mettre à l’essai un environnement informatisé d’apprentissage en laboratoire pour les sciences et la technologie. Par ce que l’énergie est au confluent de trois domaines, cet environnement a été conçu pour supporter dans une même activité l’apprentissage des mathématiques, des sciences et de la technologie. Cette intégration recommandée par les nouveaux programmes est, selon nous, essentielle à la compréhension des concepts liés à l’énergie et à ses transformations. Par cette activité d’apprentissage multidisciplinaire, nous voulons, via une approche empirique et concrète, aborder ces problèmes de transformations énergétiques afin de donner aux élèves la capacité de perfectionner les prototypes qu’ils construisent en technologie de manière à améliorer leurs performances. Nous avons montré que cette démarche technoscientifique, assimilable à la conception d’un schème expérimental en sciences, favorise la compréhension des concepts liés aux énergies et à leurs transformations. Ce développement, ouvert à l’investigation scientifique, apporte un bénéfice didactique, non seulement, pour des enseignants en exercices et des étudiants-maîtres, mais aussi pour des élèves de 5ème année du niveau secondaire, ce que nous avons démontré dans une mise à l’essai empirique.
Resumo:
La logique contemporaine a connu de nombreux développements au cours de la seconde moitié du siècle dernier. Le plus sensationnel est celui de la logique modale et de sa sémantique des mondes possibles (SMP) dû à Saul Kripke dans les années soixante. Ces dans ce cadre que David Lewis exposera sa sémantique des contrefactuels (SCF). Celle-ci constitue une véritable excroissance de l’architecture kripkéenne. Mais sur quoi finalement repose l’architecture kripkéenne elle-même ? Il semble bien que la réponse soit celle d’une ontologie raffinée ultimement basée sur la notion de mondes possible. Ce mémoire comporte quatre objectifs. Dans un premier temps, nous allons étudier ce qui distingue les contrefactuels des autres conditionnels et faire un survol historique de la littérature concernant les contrefactuels et leur application dans différent champs du savoir comme la philosophie des sciences et l’informatique. Dans un deuxième temps, nous ferons un exposé systématique de la théorie de Lewis telle qu’elle est exposée dans son ouvrage Counterfactuals. Finalement, nous allons explorer la fondation métaphysique des mondes possible de David Lewis dans son conception de Réalisme Modal.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
Le présent mémoire a pour objet de vérifier si (et comment) la sélection naturelle peut être comprise comme mécanisme de l’évolution. En effet, la notion de mécanisme en philosophie des sciences doit encore beaucoup aux développements de l’épistémologie de la physique au cours du 20ième siècle. Or, il n’est pas évident que ces développements soient adéquats au domaine biologique. De plus, même si un intérêt renouvelé pour la notion de mécanisme en biologie a entrainé une abondante littérature épistémologique portant sur la notion de mécanisme, il n’est pas clair que les conceptions offertes sont en mesure de rendre compte de la sélection naturelle. Peter Machamer, Lindley Darden, Carl Craver, Stuart Glennan, James Woodward et William Bechtel -entre autres- ont tous contribué à une analyse des mécanismes en tant qu’alternative à une approche nomologique qui a dominé le 20ième siècle. Il reste à déterminer quelle caractérisation du mécanisme réussit à s’accommoder de la sélection naturelle à la lumière de sa nature probabiliste.
Resumo:
La thèse porte sur l’analyse qualitative de situations didactiques intégrées au programme de prévention au préscolaire Fluppy. Conçu pour la prévention de la violence et du décrochage scolaire (Tremblay et al., 1992, Tremblay et al., 1995), ce programme s’est enrichi depuis une dizaine d’années de différentes composantes d’intervention, dont une sur l’enseignement du français et des mathématiques. Ce programme, relevant aujourd’hui d’une approche multimodale, a fait l’objet d’une évaluation d’impact en 2002-2004 (Capuano et al., 2010). Le devis quasi-expérimental n’a cependant pas permis de procéder à une analyse appropriée au cadre méthodologique, l’ingénierie didactique (Artigue, 1990), sur lequel se fondent les situations didactiques en mathématiques. La thèse procède donc à la validation interne des trois séquences numériques, issues de la composante mathématique, telles qu’expérimentées dans deux classes du préscolaire en 2011-2012. La première séquence vise au développement des connaissances sur la désignation de quantités. La deuxième sur la comparaison numérique et, la troisième, sur la composition additive des nombres. Les analyses mettent en évidence : 1) certains décalages entre la proposition didactique et la réalisation effective des situations; 2) l’évolution des connaissances numériques des élèves; 3) les forces et les limites de l’analyse a priori. L’interprétation des résultats ouvre sur un enrichissement de l’analyse a priori des situations didactiques ainsi que sur de nouvelles considérations relatives aux processus de dévolution et d’institutionnalisation dans le cadre de l’appropriation de situations didactiques par des enseignants du préscolaire.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.