901 resultados para Valeur
Resumo:
Ce mémoire tente de présenter la politique allemande de François Mitterrand de 1981 à 1991 à travers le discours public du président français. À cette fin, il présente la position du chef d’État socialiste sur le rôle de l’Allemagne dans la construction de l’unité européenne et dans la politique de défense et de sécurité française, ainsi que sur la question de la réunification allemande. Il tente ensuite de situer la politique allemande de François Mitterrand par rapport à celle du général de Gaulle, et de juger de la valeur du discours public du président français comme source primaire. L’hypothèse principale que nous soutenons est que le président socialiste tente, de 1981 à 1991, de s’appuyer sur la République fédérale d’Allemagne pour atteindre les objectifs de grandeur et d’indépendance fixés pour la France par de Gaulle dans les années 1960. Nous croyons qu’il souhaite d’abord se rapprocher de la RFA pour que celle-ci l’aide à unifier politiquement, économiquement et militairement l’Europe autour du couple franco-allemand. Nous croyons également que Mitterrand veut s’assurer, au début des années 1980, que la RFA restera ancrée solidement au camp occidental et qu’elle ne glissera pas vers le neutralisme, ce qui doit, selon le président français, permettre à la France d’augmenter son niveau de protection face à l’URSS et accroître son indépendance face aux États-Unis. Enfin, nous croyons que le président socialiste ne tente pas d’empêcher la réunification de l’Allemagne, mais qu’il tente d’en ralentir le processus afin de pouvoir mettre en place l’unité européenne au sein de laquelle il souhaite exercer une influence sur l’Allemagne réunifiée, et à partir de laquelle il prévoit développer sa politique d’après-guerre froide. Ces initiatives doivent permettre à la France d’absorber les contrecoups de la réunification allemande et de sauvegarder ses intérêts nationaux. Dans l’ensemble, la politique allemande de François Mitterrand est en continuité avec la politique allemande développée par le général de Gaulle de 1958 à 1964. Les deux hommes cherchent ainsi à s’appuyer sur la RFA pour créer l’unité européenne afin que celle-ci serve de tremplin à la France pour qu’elle atteigne ses objectifs de grandeur et d’indépendance. Enfin, nous croyons que le discours public du président socialiste peut être utilisé comme source primaire car il renferme une quantité importante d’information, mais son utilisation doit se faire avec précaution car comme tous les discours politiques, il vise d’abord et avant tout à convaincre l’opinion publique du bien fondé des politiques avancées.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
L’objectif de ce mémoire est de mettre en lumière la mise en forme, la réception et la transmission de 2S 7,1-17 à l’intérieur du débat qui a présentement cours autour de la rédaction deutéronomiste, ainsi que de vérifier le lien possible de ce texte avec l’évolution de la pensée théologique juive issue de l’édition deutéronomiste. Notre recherche commence par établir un texte hébreu de travail fiable grâce à la critique textuelle. L’analyse syntaxique nous permet ensuite de proposer une traduction qui soit la plus fidèle possible au texte hébreu retenu afin de mieux comprendre le sens du texte dans sa langue originale. Nous abordons, dans le troisième chapitre, la question des différentes sources littéraires ayant pu servir à la composition du texte de 2S 7,1-17. L’exploration plus détaillée de quelques pistes qui sont apparues à la suite de la critique des sources et de la réception du texte de 2S 7,1-17 par le(s) Chroniste(s), nous permet de constater qu’à l’intérieur des traditions textuelles hébraïques, la prophétie de Nathan a évolué de façon significative dans le parcours des différentes traditions de relecture. À partir des quatres étapes de recherches, nous dégageons les éléments qui pourraient être mis en lien avec les théories existantes dans le cadre de l’histoire deutéronomiste et mettons en lumière les forces et les faiblesses des solutions proposées. Les résultats de la recherche nous permettent de penser que l’intégration de la prophétie de Nathan dans la trame historique s’expliquerait par la nécessité d’éclairer une suite d’événements selon diverses perspectives théologiques. Ce n’est qu’à partir des conditions exiliques que nous aurions le texte de 2S 7,1-17 le plus tardif offrant une réflexion sur la première histoire d’Israël. Dans ce sens, la prophétie de Nathan prendrait toute sa valeur et son extension bien au-delà de la seule histoire personnelle de David ou de Salomon.
Resumo:
Les pensées herméneutiques de Gadamer et de Ricœur reconnaissent toutes deux une importance centrale, mais trop peu remarquée, au phénomène de la traduction. Elles lui attribuent même une valeur de modèle philosophique, mais l’abordent dans des perspectives différentes. Notre mémoire tâchera de présenter ces deux conceptions de la traduction et d’insister autant sur leurs similitudes que sur leurs divergences. Nous verrons que si pour Gadamer, la traduction sert surtout à mettre en évidence l’universalité de l’élément langagier, Ricœur s’intéresse, pour sa part, davantage à ses implications éthiques, qui restent seulement implicites dans la pensée gadamérienne.
Resumo:
La ventilation unipulmonaire (SLV; Single Lung Ventilation) pendant les chirurgies thoraciques entraîne des altérations cardio-pulmonaires et hémodynamiques importantes. L’objectif de ce projet de recherche consiste à étudier l’impact de la SLV sur l’oxymétrie cérébrale et sa relation avec les complications post opératoires. La première étude inclut vingt patients ayant subi une chirurgie thoracique nécessitant une SLV. L’oxymétrie a été mesurée à l’aide de l’oxymètre cérébral absolu FORESIGHTTM (CASMED, USA) afin d’étudier les changements de la saturation cérébrale absolue (SctO2) tout le long de la chirurgie. La SctO2 ainsi que les paramètres de monitorage standard (BIS, SpO2, pression sanguine, fréquence cardiaque) ont été notés à toutes les cinq minutes à partir de l’induction jusqu’au réveil. Une analyse sanguine (paO2, paCO2, Hb) a été effectuée à toutes les quinze minutes. La deuxième étude effectuée consistait d’étudier la relation entre la désaturation cérébrale en oxygène et les complications post opératoires. Pour cette fin, les scores Clavien et SOFA mesurant l’amplitude des complications, ont été établis pour chaque patient. Les données sont présentées sous forme de moyenne et de la médiane [1er quartile, 3ème quartile; min – max]. Les vingt patients de la première étude ont montré une valeur moyenne absolue de saturation cérébrale absolue (SctO2) de 80% avant l’induction. Durant la SLV, cette valeur a chuté jusqu’à 63% et est remontée à 71% directement après extubation. Tous ces patients ont subi une désaturation durant SLV de plus que 15% comparativement à la valeur de base et 70% ont eu une désaturation de plus de 20%. La désaturation n’a pas été corrélée avec aucun des paramètres de monitorage clinique standard comme la pression artérielle, les analyses des gaz artériels, la saturation périphérique ou la PaO2. La deuxième étude incluant trente autres patients aux vingt premiers, est venue confirmer les résultats de la première étude. De plus, une analyse de corrélation entre les valeurs minimales de SctO2 obtenues durant SLV et les complications post opératoires a été effectuée. Les patients avaient une SctO2 de base de 80%, qui a chuté jusqu’à 64% pendant la SLV pour récupérer à 71% avant la fin de la chirurgie. 82% des patients ont subi des désaturations de plus de 15% des valeurs initiales et 10% ont atteint des valeurs de SctO2 entre 45 et 55%. Les valeurs minimales de SctO2 observées durant la SLV corrélaient avec le score SOFA non respiratoire (R2=0,090, p=0,0287) ainsi qu’avec le score Clavien (R2=0,098, p=0,0201), mais ne corrélait avec aucun des paramètres cliniques standards (ex : SpO¬2, PaO2, PaCO2, Hb). En définissant une valeur seuil de SctO2=65%, le «Odds ratio» d’avoir une défaillance d’organe non respiratoire est de 2.37 (IC 95%=1,18 – 4,39, p=0,043) et d’avoir une complication classifiée supérieure à un score Clavien de 0 est de 3,19 (IC 95%=1,6 – 6,34, p=0,0272). Les chirurgies thoraciques avec une SLV sont associées à des chutes significatives de SctO2, et les valeurs minimales de SctO2 semblent avoir une corrélation positive avec les complications post opératoires.
Resumo:
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.
Resumo:
Le contrôle immunitaire des infections virales est effectué, en grande partie, par les lymphocytes T CD8+ cytotoxiques. Pour y parvenir, les lymphocytes T CD8+ doivent être en mesure de reconnaître les cellules infectées et de les éliminer. Cette reconnaissance des cellules infectées s’effectue par l’interaction du récepteur T (TCR) des lymphocytes T CD8+ et des peptides viraux associés au complexe majeur d’histocompatibilité (CMH) de classe I à la surface des cellules hôtes. Cette interaction constitue l’élément déclencheur permettant l’élimination de la cellule infectée. On comprend donc toute l’importance des mécanismes cellulaires menant à la génération des peptides antigéniques à partir des protéines virales produites au cours d’une infection. La vision traditionnelle de cet apprêtement protéique menant à la présentation d’antigènes par les molécules du CMH propose deux voies cataboliques distinctes. En effet, il est largement admis que les antigènes endogènes sont apprêtés par la voie dite ‘‘classique’’ de présentation antigénique par les CMH de classe I. Cette voie implique la dégradation des antigènes intracellulaires par le protéasome dans le cytoplasme, le transport des peptides résultant de cette dégradation à l’intérieur du réticulum endoplasmique, leur chargement sur les molécules du CMH de classe I et finalement le transport des complexes peptide-CMH à la surface de la cellule où ils pourront activer les lymphocytes T CD8+. Dans la seconde voie impliquant des antigènes exogènes, le dogme veut que ceux-ci soient apprêtés par les protéases du compartiment endovacuolaire. Les peptides ainsi générés sont directement chargés sur les molécules de CMH de classe II à l’intérieur de ce compartiment. Par la suite, des mécanismes de recyclage vésiculaire assurent le transport des complexes peptide-CMH de classe II à la surface de la cellule afin de stimuler les lymphocytes T CD4+. Cependant, cette stricte ségrégation des voies d’apprêtement antigénique a été durement éprouvée par la capacité des cellules présentatrices d’antigènes à effectuer l’apprêtement d’antigènes exogènes et permettre leur présentation sur des molécules de CMH de classe I. De plus, l’identification récente de peptides d’origine intracellulaire associés à des molécules de CMH de classe II a clairement indiqué la présence d’interactions entre les deux voies d’apprêtement antigénique permettant de transgresser le dogme préalablement établi. L’objectif du travail présenté ici était de caractériser les voies d’apprêtement antigénique menant à la présentation d’antigènes viraux par les molécules du CMH de classe I lors d’une infection par le virus de l’Herpès simplex de type I (HSV-1). Dans les résultats rapportés ici, nous décrivons une nouvelle voie d’apprêtement antigénique résultant de la formation d’autophagosomes dans les cellules infectées. Cette nouvelle voie permet le transfert d’antigènes viraux vers un compartiment vacuolaire dégradatif dans la phase tardive de l’infection par le virus HSV-1. Cette mise en branle d’une seconde voie d’apprêtement antigénique permet d’augmenter le niveau de présentation de la glycoprotéine B (gB) virale utilisée comme modèle dans cette étude. De plus, nos résultats décrivent la formation d’une nouvelle forme d’autophagosomes dérivés de l’enveloppe nucléaire en réponse à l’infection par le virus HSV-1. Ces nouveaux autophagosomes permettent le transfert d’antigènes viraux vers un compartiment vacuolaire lytique, action également assurée par les autophagosomes dits classiques. Dans la deuxième partie du travail présenté ici, nous utilisons l’infection par le virus HSV-1 et la production de la gB qui en résulte pour étudier le trafic membranaire permettant le transfert de la gB vers un compartiment vacuolaire dégradatif. Nos résultats mettent en valeur l’importance du réticulum endoplasmique, et des compartiments autophagiques qui en dérivent, dans ces mécanismes de transfert antigénique permettant d’amplifier la présentation antigénique de la protéine virale gB sur des CMH de classe I via une voie vacuolaire. L’ensemble de nos résultats démontrent également une étroite collaboration entre la voie classique de présentation antigénique par les CMH de classe I et la voie vacuolaire soulignant, encore une fois, la présence d’interaction entre les deux voies.
Resumo:
L’objectif de cette étude était de déterminer l’impact d’une infection intra-mammaire (IIM) subclinique causée par staphylocoque coagulase-négative (SCN) ou Staphylococcus aureus diagnostiquée durant le premier mois de lactation chez les taures sur le comptage de cellules somatiques (CCS), la production laitière et le risque de réforme durant la lactation en cours. Des données bactériologiques provenant d’échantillons de lait composites de 2 273 taures Holstein parmi 50 troupeaux ont été interprétées selon les recommandations du National Mastitis Council. Parmi 1 691 taures rencontrant les critères de sélection, 90 (5%) étaient positives à S. aureus, 168 (10%) étaient positives à SCN et 153 (9%) étaient négatives (aucun agent pathogène isolé). Le CCS transformé en logarithme népérien (lnCCS) a été modélisé via une régression linéaire avec le troupeau comme effet aléatoire. Le lnCCS chez les groupes S. aureus et SCN était significativement plus élevé que dans le groupe témoin de 40 à 300 jours en lait (JEL) (P < 0.0001 pour tous les contrastes). La valeur journalière du lnSCC chez les groupes S. aureus et SCN était en moyenne 1.2 et 0.6 plus élevé que le groupe témoin respectivement. Un modèle similaire a été réalisé pour la production laitière avec l’âge au vêlage, le trait génétique lié aux parents pour la production laitière et le logarithme népérien du JEL de la pesée inclus. La production laitière n’était pas statistiquement différente entre les 3 groupes de culture de 40 à 300 JEL (P ≥ 0.12). Les modèles de survie de Cox ont révélé que le risque de réforme n’était pas statistiquement différent entre le groupe S. aureus ou SCN et le groupe témoin (P ≥ 0.16). La prévention des IIM causées par SCN et S. aureus en début de lactation demeure importante étant donné leur association avec le CCS durant la lactation en cours.
Resumo:
Le présent mémoire dresse un portrait des règles entourant la mise en vigueur et l'entrée en application de régimes de droits de souscription d'actions. À cet effet, l'auteur résume les règles entourant les offres publiques d'achat, examine les principes touchés par la mise en place d'un régime de droits de souscription d'actions, ainsi que les effets d'un tel régime sur la valeur des actions. Dans un deuxième temps, l'auteur se penche sur la légalité des régimes de droits de souscription d'actions en effectuant une revue du principe de l'égalité des actionnaires et des droits et obligations des administrateurs en matière de défense à une offre publique d'achat. L'auteur termine en effectuant une revue des divers recours qui s'ouvrent aux divers intervenants.
Resumo:
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.
Resumo:
Réalisé en codirection avec Hélène Buzelin
Resumo:
Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.
Resumo:
Dans cet article je considère un récent défi à l’égalitarisme développé par Michael Huemer. Le challenge de Huemer prend la forme d’un dilemme : les égalitaristes peuvent être soit atomistes soit holistes en ce qui concerne la valeur de l’égalité. S’ils sont atomistes, alors ils doivent acceptés que l’égalité n’ait pas de valeur intrinsèque ; s’ils sont holistes, alors leur point ce vue est inconsistant avec une intuitive mais très plausible forme de conséquentialisme. Je montre que ce dilemme ne doit pas perturber les égalitaristes. Ils peuvent être holistes en ce qui concerne la valeur et adhérer en même temps au conséqeuntialisme.
Resumo:
Dans les démocraties occidentales, la notion d’opinion publique occupe une place importante dans l’action des politiciens et le discours des médias. Elle y renvoie généralement à la somme des opinions individuelles des citoyens, aux résultats de sondages. Or, les limites de l’opinion publique ainsi conceptualisée apparaissent de plus en plus clairement aux chercheurs en sciences sociales, et cela jette un doute sur sa valeur comme guide des politiques publiques. Pour mieux comprendre la place de l’opinion publique dans le processus démocratique québécois, nous avons cherché à connaître les conceptions qu’en ont certains acteurs-clés : les chroniqueurs politiques et éditorialistes francophones du Québec. Au moyen d’entrevues, nous avons documenté leurs « théories profanes » à ce sujet, c’est à dire leurs façons de voir l’opinion publique et sa place dans le processus démocratique. L’exercice nous apprend que ces « commentateurs habituels » distinguent plusieurs formes d’opinion publique, de valeur inégale. Celle qui revêt le plus d’intérêt pour eux est une « opinion publique latente », qui intègre des dimensions d’intensité et de propension à changer. Ils jugent les sondages utiles mais insuffisants pour appréhender l’opinion publique; aussi l’interprètent-ils à partir de conversations et d’un certain « sens de l’opinion publique ». Selon eux, les médias peuvent influencer l’opinion publique, mais surtout influencer la tenue d’une délibération publique et la façon dont les décideurs lisent l’opinion publique. Ils estiment aussi pouvoir, par leur travail journalistique, favoriser l’émergence d’une opinion publique raisonnée, ce qui est conforme à leur idéal de démocratie participative.