108 resultados para Théorie interactive
Resumo:
Will Kymlicka a formulé une théorie libérale du droit des minorités en arguant que l'on doit protéger les cultures minoritaires des influences extérieures, car, selon lui, ces cultures fournissent aux individus un contexte de choix significatif qui permet la prise de décision autonome. Il limite donc la portée de sa théorie aux minorités « culturelles », c'est-à-dire les minorités nationales et immigrantes, qui peuvent fournir ce contexte de choix significatif aux individus. Évidemment, les injustices vécues par ces deux types de minorités, aussi sévères soient-elles, n'épuisent pas les expériences d'injustices vécues par les membres de groupes minoritaires et minorisés (i.e. minorités sexuelles, femmes, Afro-Américains, etc.). On pourrait donc être tenté d'élargir la portée de la théorie du droit des minorités pour rendre compte de toutes les injustices vécues en tant que minorité. Toutefois, je défends la thèse selon laquelle cette extension est impossible dans le cadre d'une théorie libérale, car une de ses méthodes typiques, la « théorie idéale », limite la portée critique des thèses de Kymlicka et parce que l'autonomie individuelle a un caractère si fondamental pour les libéraux, qu'ils ne peuvent rendre compte du fait que certaines décisions individuelles autonomes peuvent contribuer à perpétuer des systèmes et des normes injustes.
Resumo:
Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.
Resumo:
"Selon la théorie officielle de l’interprétation des lois, le législateur est l’émetteur d’un message, le texte de loi son support et l’interprète son récepteur. Le contenu du message transmis, c’est-à-dire le sens de la loi, est entièrement déterminé avant même que l’interprète n’en prenne connaissance; il repose dans le texte, en attente d’être découvert. Le rôle du juge se résume donc à lire le texte et à l’appliquer, certains diront presque mécaniquement, aux faits qui lui sont soumis. En fait, sa mission consiste à rechercher l’intention souveraine du législateur et à lui donner effet. Il est de plus en plus reconnu que la doctrine officielle de l’interprétation des lois dresse de la fonction juridictionnelle un portrait à la fois réducteur et trompeur. À tout le moins, on admet généralement que l’interprétation de la loi est une activité qui implique que le juge fasse des choix en fonction de ses propres valeurs et croyances. Mise de l’avant par Friedrich Müller, la théorie structurante du droit va plus loin en posant le juriste comme le véritable créateur de la norme juridique. Plus conforme à la réalité, ce modèle reconnaît au juge une liberté accrue, mais le contraint à faire preuve d’une plus grande transparence et à assumer la responsabilité de ses choix. Le présent texte a pour objet de démontrer les avantages de remplacer la conception traditionnelle de l’interprétation des lois par une conception structurante du droit. "
Resumo:
C’est à l’occasion des travaux qui devaient mener à la publication du Traité de droit de la santé et des services sociaux1 que ma collègue Andrée Lajoie a démontré l’existence, en droit québécois, d’un droit aux services de santé qui permettait à chaque citoyen qui en était titulaire d’en exiger la réalisation auprès de ceux qui en étaient ainsi les débiteurs. Cette proposition, jusqu’alors inédite, découlait d’une analyse juridique classique du droit positif. En raison de certaines conséquences qui en découlaient sur la qualification des rapports établis entre les titulaires de ce droit et les personnes ou les institutions qui devaient en assurer l’exercice, cette nouvelle théorie a soulevé une controverse dans la doctrine que même les propos de la Cour d’appel, tenus près de vingt ans plus tard, n’ont pas complètement dissipé.
Resumo:
Dans la philosophie existentialiste de Sartre, l’existence précède l’essence. C’est-à-dire que c’est la réalité humaine vécue qui définit l’homme, et non une essence abstraite qui précèderait l’existence. L’essence de la vie humaine ne serait donc pas à la portée de la philosophie, qui voudrait établir une essence qui transcenderait la réalité humaine. Pour Sartre, cette tentative d’établir une essence est vaine. L’homme n’est pas simplement, mais a à être. Sartre entrevoit dans cette exigence la seule vraie possibilité de la liberté : la liberté c’est précisément le néant qui est au cœur de l’homme et qui contraint la réalité humaine à se faire au lieu d’être. Cette notion de la liberté absolue de l’homme est très forte et a évidemment suscité la critique. Sartre s’est attiré notamment la désapprobation des penseurs de l’École de Francfort. Ils lui reprochent de ne pas rendre justice aux déterminations spécifiques qu’impose le contexte historique, social et matériel. Sa notion de liberté viendrait dissocier l’horizon des possibilités des processus qui les fixent et, du coup le mène à cautionner tacitement le statut quo, en empêchant la liberté de servir de critère pour critiquer la domination existante. Une philosophie existentialiste reste-t-elle possible par-delà cette critique? La croyance en le caractère absurde de la vie humaine et l’exigence à se faire pour donner un sens à l’existence peuvent-elles tenir sans postuler la liberté absolue? Ou bien cette liberté doit-elle nécessairement être circonscrite par une théorie sociale critique, sans quoi l’existentialisme colportera clandestinement le maintien du statu quo?
Resumo:
L’étude de l’orientation mentale (OM), soit l’habileté des parents à concevoir et à traiter leur enfant comme un individu disposant d’une vie mentale autonome et active (Meins, 1997), a gagné en intérêt grâce à la démonstration de ses associations avec plusieurs sphères du développement de l’enfant, entre autres avec le style d’acquisition linguistique chez les enfants de 20 mois ainsi que le développement de la théorie de l’esprit chez les enfants d’âge préscolaire (p. ex., Meins & Fernyhough, 1999). En dépit de ces résultats, l’étude du développement du vocabulaire et des stades initiaux de la théorie de l’esprit chez les enfants a été négligée dans cette littérature. La présente thèse est composée de trois articles empiriques et vise à combler certaines lacunes de la littérature actuelle. Le premier article vise à examiner les liens longitudinaux entre l’OM maternelle et le vocabulaire expressif chez les enfants de 2 ans. Les deuxième et troisième articles ont pour but d’évaluer les relations longitudinales entre l’OM maternelle, la sécurité d’attachement des enfants et les toutes premières articulations de la théorie de l’esprit chez les enfants de 2 ans, puis 2 ans plus tard, avec la théorie de l’esprit chez les enfants de 4 ans. Les données des trois articles proviennent de cinq visites effectuées au domicile de 84 dyades mère-enfant. À 12 mois, l’OM maternelle a été mesurée lors de jeux libres mère-enfant à l’aide du système de codification de Meins et al. (2001). À 15 mois, la sécurité d’attachement de l’enfant a été mesurée par un observateur avec le Q-Sort d’attachement (Waters & Deane, 1985). À 2 ans, les mères ont évalué le langage de leur enfant à l’aide des inventaires MacArthur du développement de la communication (Dionne, Tremblay, Boivin, Laplante, & Pérusse, 2003). Finalement, la théorie de l’esprit de l’enfant a été mesurée à 2 et 4 ans à l’aide de diverses tâches expérimentales (Carlson, Mandell, & Williams, 2004). Les résultats du premier article indiquent que l’OM maternelle est associée au développement du vocabulaire expressif des enfants de 2 ans. Les résultats des deuxième et troisième articles indiquent que la compréhension des enfants de 2 et 4 ans aux tâches de théorie de l’esprit est associée à l’OM maternelle. De plus, ces deux articles ont démontré que les garçons, mais pas les filles, présentant des comportements d’attachement davantage sécures ont obtenu de meilleures performances à une tâche demandant la compréhension des perspectives visuelles de leur mère à 2 ans et de celles d’une étrangère à 4 ans. En conclusion, les résultats de la thèse suggèrent que l’utilisation que les mères font de commentaires mentaux à 12 mois semble favoriser l’acquisition de mots dans le vocabulaire expressif de leur enfant à 2 ans ainsi que le développement d’une meilleure compréhension aux tâches de théorie de l’esprit à 2 et 4 ans.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention de la maîtrise en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
La présente étude propose une analyse historique de la légende urbaine des snuff movies. En premier lieu, elle se penche sur l’émergence de cette rumeur dans le paysage médiatique américain des années 70 tout en focalisant sur certains objets filmiques l’ayant crédibilisée, principalement les stag et les mondo movies. Ce mémoire analyse par la suite l’influence majeure de deux événements sur l’implantation de la légende urbaine dans l’imaginaire collectif, soit l’assassinat de Sharon Tate et la circulation du film de Zapruder. Après avoir étudié la persistance de la rumeur, cet essai focalise sur la promotion et l’exploitation de Snuff (1976) en plus de proposer une analyse de ce long métrage. Ensuite, il se penche sur deux types de représentations du snuff dans le cinéma de fiction ainsi que leurs impacts sur l’authentification de la légende urbaine. Il est d’abord question des mises en scène du snuff dans le cinéma populaire qui s’inspirent de la rumeur pour ensuite l’actualiser. Sont ensuite étudiées les représentations du snuff à titre de faux documents, soit ces œuvres qui tentent par divers procédés de se faire passer pour de véritables films clandestins et, de ce fait, authentifient l’objet auquel ils se réfèrent. Puisque cette étude analyse l’évolution médiatique de la légende urbaine, elle se conclut sur son déplacement du cinéma vers Internet et de sa nouvelle crédibilisation grâce aux vidéos macabres, à la pornographie juvénile et au récent cas Magnotta.
Resumo:
Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.
Modes de conceptualisation métaphoriques et théorie de l’évolution : analyse textuelle et traduction
Resumo:
Éminent naturaliste du XIXe siècle, Charles Darwin publie en 1859 ce qui s'avérera être l’un des textes fondateurs des sciences de la vie : On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life (ou OS). Ce volumineux ouvrage pose les assises conceptuelles de la théorie darwinienne de l'évolution. Cette dernière suscite encore de nos jours la controverse : certains la nient (créationnisme, dessein intelligent, etc.) alors que d'autres la poussent à l'extrême (eugénisme, darwinisme social, etc.). Vu la grande portée de l'OS, le problème de sa traduction en français se présente de lui-même. Ce champ d'étude reste pourtant largement inexploré. Nous avons donc choisi, dans le présent travail, d’étudier les traductions françaises de l’OS. Notre étude s’inscrivant dans un axe de recherche qui s’intéresse aux modes de conceptualisation métaphorique en usage dans les domaines biomédicaux, ainsi qu’aux problèmes de traduction qu’ils soulèvent, nous avons choisi de nous concentrer plus particulièrement sur les modes de conceptualisation métaphorique présents dans le texte de l'OS, et sur la manière dont ils ont été traduits en français. Pour mener à bien ce projet, nous avons élaboré une méthodologie à partir de celle déjà utilisée avec succès dans des études antérieures menées au sein du même axe de recherche que le nôtre. En plus de l’annotation et l’interrogation informatisée de notre corpus, cette méthodologie consiste en la mise en relation, au plan informatique, de plusieurs traductions d’un même texte. De par sa complexité technique, son élaboration constitue l’un des objectifs majeurs de notre étude. Les résultats obtenus nous ont permis de confirmer deux de nos trois hypothèses : 1) la totalité des modes de conceptualisation identifiés dans notre corpus anglais se retrouvent également dans chacune des traductions, et 2) aucun mode de conceptualisation métaphorique ne peut être dégagé des traductions françaises qui n’est pas déjà présent dans l’original anglais. En plus de nous permettre de comparer chaque traduction à l’original anglais, ces résultats nous ont également permis de comparer entre elles les différentes traductions françaises de l’OS. Ce mémoire de maîtrise comporte six chapitres, qui correspondent tour à tour à : notre cadre théorique, l'état de la question, nos hypothèses et nos objectifs, notre méthodologie, nos résultats et la discussion de ces résultats.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?
Resumo:
La thèse insiste sur les différents aspects du terme interprétation. Si son sens varie d’une discipline à l’autre, il varie également d’un juriste à un autre. Partant du constat de l’inadéquation de la théorie classique reposant sur la distinction entre méthode subjective et méthode objective d’interprétation, la thèse propose une nouvelle théorie interprétative basée sur les théories de la communication (la rhétorique et la pragmatique). La théorie pragmatique ainsi développée est par la suite illustrée à l’aide de la jurisprudence de la Cour d’appel du Québec. Ceci afin de démontrer qu’il n’y a pas une théorie interprétative, mais bien des théories interprétatives du contrat au sein des magistrats. Ces théories se distinguent par la prépondérance qu’elles accordent aux arguments de volonté, de logique et d’effectivité. De plus, la thèse fait la démonstration de la nécessité de distinguer entre la production de la norme (opération intellectuelle suivie par l’interprète inaccessible pour l’auditoire) et la justification de la norme (argumentation développée par l’interprète afin de convaincre l’auditoire). S’il peut y avoir adéquation entre ces deux étapes, il peut également y avoir discordance entre le processus suivi afin d’arriver au résultat interprétatif et la justification de ce dernier. Tel est le cas notamment lorsque l’interprète argumente à l’aide de la théorie de l’acte clair voulant qu’un texte clair n’ait pas besoin d’être interprété.
Resumo:
Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.
Resumo:
Réalisé en cotutelle avec l'Université de Grenoble.