986 resultados para Procédure commerciale -- Dictionnaires


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notes d'analyse de la Chaire d’études politiques et économiques américaines (CÉPÉA)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est d’explorer l’effet modérateur du nombre d’amis et de leurs caractéristiques sur le lien prédictif entre la victimisation par les pairs et l’anxiété sociale. Plus spécifiquement, cette étude s’intéresse aux niveaux moyens de victimisation, de rejet et d’anxiété sociale des amis comme facteurs aggravants potentiels. Les données ont été recueillies à deux reprises auprès de 576 adolescents d’en moyenne 13,5 ans au début de leur secondaire deux et à la fin de leur secondaire trois. Les participants ont répondu à des questionnaires auto-rapportés pour les mesures de victimisation et d’anxiété sociale et ont participé à une procédure de nomination sociométrique pour la mesure de statut social et l’identification des amis. De manière concomitante, les résultats démontrent que la victimisation par les pairs et certaines caractéristiques des amis (niveaux d’anxiété et de rejet social) contribuent respectivement, de manière unique et indépendante, à rendre compte de l’anxiété sociale des participants. De manière longitudinale, la victimisation par les pairs permet de prédire le développement de l’anxiété sociale sur une période de 1,5 ans. Néanmoins, le nombre d’amis et leurs caractéristiques ne contribuent pas de manière additive au développement ultérieur de l’anxiété sociale. De plus, les caractéristiques des amis n’interagissent d’aucune façon avec la victimisation par les pairs pour rendre compte du développement ultérieur de l’anxiété sociale. Cependant, des analyses exploratoires ont permis de montrer que le niveau de victimisation des amis constitue un facteur aggravant pour les enfants rejetés socialement; le rejet par les pairs étant positivement associé au développement de l’anxiété sociale chez les élèves qui entretiennent des relations d’amitié avec des élèves qui rapportent être victimes de mauvais traitements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'écologie urbaine est un nouveau champ de recherche qui cherche à comprendre les structures et les patrons des communautés et des écosystèmes situés dans des paysages urbains. Les petits plans d’eau sont connus comme des écosystèmes aquatiques qui peuvent contenir une biodiversité considérable pour plusieurs groupes taxonomiques (oiseaux, amphibiens, macroinvertébrés), ce qui en fait des écosystèmes intéressants pour les études de conservation. Cependant, la biodiversité du zooplancton, un élément central des réseaux trophiques aquatiques, n’est pas entièrement connue pour les plans d’eaux urbains et devrait être mieux décrite et comprise. Cette étude a évalué les patrons de biodiversité des communautés zooplanctoniques dans des plans d’eau urbains sur l’Ile de Montréal et leurs sources de variation. Des suggestions pour l’évaluation et la conservation de la biodiversité sont aussi discutées. La biodiversité zooplanctonique des plans d’eaux urbains s’est avérée être assez élevée, avec les cladocères et les rotifères montrant les contributions à la diversité gamma et bêta les plus élevées. Sur l’ensemble des plans d’eau, il y avait une corrélation négative entre les contributions à la bêta diversité des cladocères et des rotifères. Au niveau de chaque plan d'eau, la zone littorale colonisée par des macrophytes s'est avérée être un habitat important pour la biodiversité zooplactonique, contribuant considérablement à la richesse en taxons, souvent avec une différente composition en espèces. Les communautés zooplanctoniques répondaient aux facteurs ascendants et descendants, mais aussi aux pratiques d’entretien, car le fait de vider les plans d’eau en hiver affecte la composition des communautés zooplanctoniques. Les communautés de cladocères dans ces plans d’eau possédaient des quantités variables de diversité phylogénétique, ce qui permet de les classer afin de prioriser les sites à préserver par rapport à la diversité phylogénétique. Le choix des sites à préserver afin de maximiser la diversité phylogénétique devrait être correctement établi, afin d’eviter de faire des choix sous-optimaux. Cependant, pour des taxons tels que les cladocères, pour lesquels les relations phylogénétiques demeurent difficiles à établir, placer une confiance absolue dans un seul arbre est une procédure dangereuse. L’incorporation de l’incertitude phylogénétique a démontré que, lorsqu’elle est prise en compte, plusieurs différences potentielles entre la diversité phylogenétique ne sont plus supportées. Les patrons de composition des communautés différaient entre les plans d’eau, les mois et les zones d’échantillonnage. Etant donné les intéractions sont significatives entres ces facters; ceci indique que tous ces facteurs devraient êtres considérés. L’urbanisation ne semblait pas sélectionner pour un type unique de composition des groupes alimentaires, étant donné que les communautés pouvaient changer entres des assemblages de types alimentaires différents. Les variables environnementales, surtout la couverture du plan d’eau en macrophytes, étaient des facteurs importants pour la biodiversité zooplanctonique, affectant la richesse spécifique de divers groupes taxonomiques et alimentaires. Ces variables affectaient aussi la composition des communautés, mais dans une moindre mesure, étant des variables explicatives modestes, ce qui indiquerait le besoin de considérer d’autres processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à dégager certaines des traces des discours antérieurs (cotextuels) qui sont la matière même du roman « Allah n’est pas obligé », à la fois sur le plan de l’écriture et sur celui d’une mémoire douloureuse. Il s’agit de montrer que la « poétique de l’explication » qui caractérise le roman constitue une stratégie de dévoilement des rhétoriques fallacieuses destinées à occulter l’inadmissible. En effet, le recours constant aux dictionnaires n’est que l’effet le plus visible d’une poétique englobante qui consiste à confronter les uns aux autres les discours sur le monde, discours en deçà des mots inscrits dans le texte comme une mémoire en palimpseste, afin de faire ressortir leur incapacité à expliquer des réalités aussi inhumaines que le sort que subissent les enfants-soldats. Le roman de Kourouma met ainsi en évidence deux attitudes possibles face aux atrocités indicibles des guerres oubliées des temps présents : soit on en nie le caractère insensé en multipliant les discours d’explication, soit l’on dénonce toute tentative de manipulation des discours visant à rendre sensé l’insensé. La première posture est illustrée par le « blablabla » du narrateur Birahima ; la deuxième est celle du roman lui-même.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude oscillera entre deux niveaux d’analyse : l’un que l’on pourrait qualifier d’intradoctrinal (section V) et l’autre qu’il conviendrait plutôt d’appeler métadoctrinal (sections III, IV et VI). Alors qu’il s’agira dans le premier cas de limiter notre analyse aux articulations explicites du discours cynique, en prenant soin de renouveler l’interprétation de certains problèmes inhérents au corpus proprement dit, il s’agira plutôt dans le deuxième cas de pénétrer l’arrière-scène de son dispositif conceptuel, en cherchant à mettre au jour ce qui surdétermine philosophiquement la fonction qu’occupe le concept de nature dans l’économie générale du cynisme. Tour à tour seront ainsi abordés les thèmes de l’âge d’or, du modèle infantile, en même temps que nous veillerons à questionner les ramifications pour ainsi dire souterraines qui relient l’élaboration du concept de nature à l’idéal moral d’autarcie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Hume, dans son Traité sur la nature humaine, utilise deux concepts qui semblent se rapporter à l’identité personnelle d’un individu : le moi (self) et le caractère personnel. Cependant, dans le Traité, il ne traite pas à la fois de l’un et de l’autre : dans le premier livre, « De l’entendement », il s’intéresse au moi, alors que dans les second et troisième livres, « Des passions » et « De la morale » il traite plutôt du caractère. On constate alors qu’il y a une nette différence chez Hume entre ce qui constitue le moi d’un individu et son caractère personnel. Ils ne se définissent absolument pas de la même manière et au final, ils ne se rapportent pas, tous deux, à l’identité personnelle. Le caractère qui permet d’aborder la question de la responsabilité morale d’un individu, ce que le moi ne peut pas faire, constitue la véritable identité d’un individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Carnap a eu une participation active dans les discussions entourant la crise des fondements avant de se lancer dans le projet d’établir les fondements logiques des probabilités, ce qu’il présente dans « Logical Foundations of Probability » (1950). Il a montré que les querelles entre l’interprétation des probabilités comme état du monde et comme état de connaissance de l’observateur étaient vaines puisqu’elles ne portaient pas sur le même concept. Pour lui, la logique des probabilités est la logique inductive : une probabilité décrit une relation logique, soit le degré de confirmation d’une hypothèse selon des données observées. Deux ans plus tard, dans « The Continuum of Inductive Methods » (1952), il enrichit son système et démontre qu’il existe une quantité infinie de méthodes inductives. Nous replacerons l’interprétation de Carnap parmi celles discutées à son époque et discuterons de certaines implications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Portant sur le lien entre le traitement du Sollen dans la Science de la logique et la critique du normativisme menée par G. W. F. Hegel dans la Préface des Principes de la philosophie du droit, le texte recense, dans un premier temps, trois arguments contre l’usage du devoir-être dans la réflexion philosophique politique puis, dans un deuxième temps, nuance les deux sens du devoir-être dans la Science de la logique afin de, dans un troisième temps, spécifier le sens de la critique hégélienne du normativisme selon les deux points suivants : 1. dans la Préface des Principes de la philosophie du droit, cette critique ne s’applique qu’à l’activité spéculative ayant l’État pour objet et 2. l’opposition entre être et devoir-être a pour but de souligner la qualité spéculative de la pensée portant sur l’État, ces deux spécifications reposant, enfin, sur la difficulté d’établir une correspondance étroite entre l’usage critique du concept de Sollen dans les Principes de la philosophie du droit et les deux sens de ce concept dans la Science de la logique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this paper is to examine a particular substantive theory among others in the set of “revisionist” theories of moral responsibility, namely, Manuel Vargas’ version of the moral influence account of the justification of responsibility- specific practices. Moderate revisionism, which Vargas (2005) endorses, advocates a clear distinction between descriptive and normative questions, which enables a naturalistically plausible account of responsibility that does not jeopardize the normative aspect. However, while Vargas provides a useful framework for thinking about revisionism, I argue that despite its initial appeal, an actual revisionist theory does not seem to track as closely as we would like what I call the “meta-theory” of revisionism, viz. what Vargas defines as the features of moderate revisionism. Outlining these differences enables the formulation of observations about 1) the role of revisionist approaches for theorizing about moral responsibility and 2) how revisionism can be integrated with scientifically informed approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La visée de ce texte est d’introduire le lecteur francophone à l’interprétation pragmatique de Hegel essentiellement présente dans le monde anglo-saxon. L’intérêt grandissant au sein de la francophonie pour ce genre de lecture nous porte à questionner le sens même du qualificatif « pragmatique » qui la caractérise. Cette précision faite, nous nous attarderons à la figure de la certitude sensible dans la Phénoménologie de l’esprit en y soulignant les thèmes pragmatiques, notamment dans le cas de ce que Wilfrid Sellars aurait appelé une critique du mythe du donné.