344 resultados para théorie Sens-Texte
Resumo:
Cet article propose une interprétation de certains passages qui posent un problème de cohérence dans la théorie leibnizienne de la perception et de l’aperception. C’est le cas notamment d’un passage des Nouveaux essais sur l’entendement humain (1704), qui accorde aux animaux l’aperception, et du quatrième paragraphe des Principes de la Nature et de la Grâce (1710), où Leibniz semble plutôt faire coïncider aperception et réflexion, celle-ci étant pourtant réservée aux esprits raisonnables ailleurs dans son œuvre. Afin d’éviter la contradiction, notre interprétation donne une crédibilité particulière au passage des Nouveaux essais en défendant l’idée que Leibniz accorde l’aperception aux animaux, mais réserve la réflexion aux esprits. Nous tâcherons aussi de rendre évident comment certains passages semblant contredire cette position peuvent néanmoins être interprétés en ce sens.
Resumo:
Cet article tente d'entrevoir une expérience féminine redéfinie selon le concept d'expérience propre à la théorie pragmatiste originairement développée par John Dewey. Le concept d'une expérience spécifiquement féminine est à la fois central dans l'histoire du féminisme et très critiqué par celui-ci. Pour Richard Rorty, il maintient un espace problématique à l'extérieur du langage et selon Judith Grant il implique la nécessité qu'il existe une forme de dénominateur commun à l'existence de toutes les femmes. Afin de répondre à ces critiques, nous étudierons en quoi les prémisses du pragmatisme de Dewey, de Timothy V. Kaufman Osborn et même de Richard Rorty lui-même rejoignent celle de l’épistémologie féministe telle quelle est conçue depuis les années 90 ; et en quoi, à la lumière de ces prémisses et de la définition de la femme que propose Sally Haslanger, la notion d’expérience féminine peut être comprise et réhabilitée.
Resumo:
L’ontologie de Leśniewski est un calcul général des noms. Elle fut créée par Leśniewski pour apporter une solution naturelle au paradoxe de Russell en théorie naïve des ensembles. L’ontologie a été perçue par ses défenseurs et par ses adversaires comme une théorie incompatible avec la théorie des ensembles. Dans le présent texte, nous montrons que l’ontologie de Leśniewski permet, au contraire, de définir une théorie des ensembles qui coïncide avec la théorie de Zermelo- Fraenkel.
Resumo:
Hutcheson fonde sa théorie morale sur un « sens moral ». Ce sens nous permet de faire des distinctions morales (bien et mal). Cette théorie donnera lieu à un débat sur la réalité des valeurs morales. Selon certains commentateurs, nos distinctions morales portent sur des faits moraux réels que l’on peut connaître empiriquement grâce à notre sens moral. Inversement, certains soutiendront que le sens moral ne produit pas de connaissance morale. Les jugements moraux issus de ce sens sont des réponses émotionnelles plus ou moins fiables que l’on ressent face à des motivations qui nous semblent être vertueuses. Nous montrerons que, selon Hutcheson, nos jugements moraux sont bien des réponses émotionnelles, mais qu’ils ont néanmoins un critère d’objectivité. Notre sens moral, grâce à la Providence divine, a pour fonction de préserver le bien-être de l’humanité. Cette fonction du sens moral sert de critère pour évaluer le bon fonctionnement de ce sens moral.
Resumo:
En mécanique statistique, un système physique est représenté par un système mécanique avec un très grand nombre de degrés de liberté. Ce qui est expérimentalement accessible, croit-on, se limite à des moyennes temporelles sur de longues périodes. Or, il est bien connu qu’un système physique tend vers un équilibre thermodynamique. Ainsi, les moyennes temporelles censées représenter les résultats de mesure doivent être indépendantes du temps. C’est pourquoi elles sont associées à des temps infinis. Ces moyennes sont par contre difficilement analysables, et c’est pourquoi la moyenne des phases est utilisée. La justification de l’égalité de la moyenne temporelle infinie et de la moyenne des phases est le problème ergodique. Ce problème, sous une forme ou une autre, a fait l’objet d’études de la part de Boltzmann (1868 ; 1872), les Ehrenfest (1912), Birkhoff (1831), Khinchin (1949), et bien d’autres, jusqu’à devenir une théorie à part entière en mathématique (Mackey 1974). Mais l’introduction de temps infinis pose des problèmes physiques et philosophiques d’importance. En effet, si l’infini a su trouver une nouvelle place dans les mathématiques cantoriennes, sa place en physique n’est pas aussi assurée. Je propose donc de présenter les développements conceptuels entourant la théorie ergodique en mécanique statistique avant de me concentrer sur les problèmes épistémologiques que soulève la notion d’infini dans ces mêmes développements.
Resumo:
Le modèle déductivo-nomologique domine depuis longtemps la réflexion philosophique concernant l’explication en science économique. Or, pour plusieurs, comme James Woodward et Tony Lawson, ce modèle ne considère pas suffisamment la causalité dans l’explication. L’objectif de cet article est double : 1- renforcer la critique que Tony Lawson adresse à l’économie contemporaine et 2- évaluer la théorie alternative qu’il propose, le « réalisme critique », qui tente de réintroduire la causalité dans l’explication en science économique. Nous conclurons que les considérations causales sont très importantes pour l’explication en science économique mais aussi pour bien comprendre les limites de cette science.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cet article a pour objectif de déceler chez Kant, et plus précisément dans la Critique de la raison pure, une théorie d’altérité. Nous partons de ce que Kant nomme lui-même le « paradoxe » du sens interne, à savoir que le sujet vit son activité de pensée de manière passive, comme tout autre phénomène. C’est dire que le sujet se reçoit comme une intuition et il en est affecté, de même qu’il l’est par l’intuition des objets à l’extérieur de lui. Or si cette structure se présente comme en effet une structure d’altérité où le sujet vit son activité comme celle d’un autre, il nous faut encore tenir compte des remarques de Kant (notamment dans la seconde édition) où le sujet est présenté comme ayant un rapport direct (et donc préphénoménal) à soi. C’est à partir de cette tension interne au texte de la Critique que nous tenterons d’esquisser une théorie d’altérité. Nous voulons montrer que l’aperception pure est douée d’une forme de négativité qui rendra impossible toute immédiateté dans le rapport à soi.
Resumo:
Un résumé en anglais est également disponible
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
La causalité au sens de Granger est habituellement définie par la prévisibilité d'un vecteur de variables par un autre une période à l'avance. Récemment, Lutkepohl (1990) a proposé de définir la non-causalité entre deux variables (ou vecteurs) par la non-prévisibilité à tous les délais dans le futur. Lorsqu'on considère plus de deux vecteurs (ie. lorsque l'ensemble d'information contient les variables auxiliaires), ces deux notions ne sont pas équivalentes. Dans ce texte, nous généralisons d'abord les notions antérieures de causalités en considérant la causalité à un horizon donné h arbitraire, fini ou infini. Ensuite, nous dérivons des conditions nécessaires et suffisantes de non-causalité entre deux vecteurs de variables (à l'intérieur d'un plus grand vecteur) jusqu'à un horizon donné h. Les modèles considérés incluent les autoregressions vectorielles, possiblement d'ordre infini, et les modèles ARIMA multivariés. En particulier, nous donnons des conditions de séparabilité et de rang pour la non-causalité jusqu'à un horizon h, lesquelles sont relativement simples à vérifier.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
McCausland (2004a) describes a new theory of random consumer demand. Theoretically consistent random demand can be represented by a \"regular\" \"L-utility\" function on the consumption set X. The present paper is about Bayesian inference for regular L-utility functions. We express prior and posterior uncertainty in terms of distributions over the indefinite-dimensional parameter set of a flexible functional form. We propose a class of proper priors on the parameter set. The priors are flexible, in the sense that they put positive probability in the neighborhood of any L-utility function that is regular on a large subset bar(X) of X; and regular, in the sense that they assign zero probability to the set of L-utility functions that are irregular on bar(X). We propose methods of Bayesian inference for an environment with indivisible goods, leaving the more difficult case of indefinitely divisible goods for another paper. We analyse individual choice data from a consumer experiment described in Harbaugh et al. (2001).