70 resultados para A priori
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Ce mémoire analyse la réception de l’auteur autrichien Thomas Bernhard (1931-1989) au regard des scandales qui ont marqué sa carrière. Tantôt identifié comme l’imprécateur de l’Autriche, tantôt comme écrivain exceptionnel, il aura remis en question le rôle de son pays dans le national-socialisme et multiplié les attaques ad hominem. Il aura tenu un rôle ambigu dans l’espace public. Tout en insistant sur le caractère fictif de ses œuvres, il se mettait en scène de façon provocatrice dans le discours public ainsi que dans sa fiction. Ce mémoire s’intéresse au fonctionnement du scandale en tant qu’événement social complexe ayant lieu dans l’espace public. Les chercheurs s’entendent pour considérer le scandale comme un trouble ou une irritation résultant d’une transgression, apparente ou avérée. Il s’agit en outre d’un phénomène intégré dans l’ordre social et géré par les médias, caractérisé par l’actualisation des valeurs morales. Dans la présente étude, il est postulé que le capital symbolique (cf. Bourdieu) joue un rôle d’a priori et de catalyseur dans les scandales. Une accumulation initiale de capital symbolique assure une visibilité médiatique automatique. Le capital d’identité de Thomas Bernhard – soit la personnalisation du capital symbolique – est hybride et complexe, de sorte qu’il est difficilement appréciable. La difficile appréciation du capital de l’auteur se traduit par l’incertitude des journalistes et du public quant à son message : réactions dispro-portionnées, critique du particulier perçue comme mise en cause de l’universel. Toute dé-claration, toute œuvre de Bernhard est assujettie à ses prestations « scandaleuses » antérieu-res. Ce mémoire insiste sur le caractère autoréférentiel du scandale et s’intéresse aux actes de langage performatifs (cf. John L. Austin). Le corpus comporte des romans de Bernhard, leurs recensions, des articles de quotidiens, des lettres de lecteurs, des documents juridiques ainsi que la correspondance entre Bernhard et Siegfried Unseld.
Resumo:
L’intérêt de l’enfant est une notion « polymorphe » dont les tenants et aboutissants sont difficiles à cerner. A priori, nous postulions que son caractère polymorphe en permet l’instrumentalisation, les acteurs sociaux cherchant, par la représentation qu’ils s’en font, à défendre leurs intérêts. Notre mémoire prend d’ailleurs à partie l’exemple de l’avant-projet de Loi modifiant le Code civil et d’autres dispositions législatives en matière d’adoption et d’autorité parentale. Dans notre premier titre, il convenait ainsi de dresser l’historique de l’intérêt de l’enfant en tant que notion variablement évolutive, de sa réception en jurisprudence et dans les lois québécoises portant sur l’adoption, à son incorporation en droit commun, à la suite de l’abrogation du concept de puissance paternelle. Nous en avons également identifié les fondements, au travers du droit anglais, du droit international, des Chartes et du droit naturel. Les éléments de définition du concept étant multiples, nous avons enfin cherché à le conceptualiser, à en dégager les bases légales et à effectuer l’analyse doctrinale et jurisprudentielle de ses critères. Puis, afin de démontrer nos prémisses, nous avons examiné, dans notre seconde partie, les discours de quelques 23 intervenants dans le cadre des consultations menées par la Commission des institutions sur l’avant-projet de loi susdit. En somme, alors que les chercheurs universitaires ont une position ne cherchant pas à insister sur une dimension de l’intérêt de l’enfant convergeant vers leur mission, les propos des ordres professionnels, des groupes de pression et des organismes para-gouvernementaux sont, en revanche, à l’effet contraire.
Resumo:
Le sujet principal de ce mémoire est l’expression des émotions en univers carcéral. L’émission radiophonique « Souverains Anonymes » a servi d’étude de cas pour ce travail. Dans cette étude, j’ai analysé en détail l’expression des émotions dans un environnement supposément hostile, soit le milieu carcéral. Je me suis appuyée sur la littérature portant sur les émotions et les institutions totales afin d’étudier un nouvel axe qui est celui de l’analyse interactionnelle de l’expression des émotions dans un environnement imposé, régimenté, a priori non propice à de telles expressions. Le corpus à partir duquel j’ai élaboré mes analyses est constitué, d’une vidéographie intitulée « Hommes de passage » réalisé par Bruno Boulianne. C’est une vidéographie, qui a été tourné sur l’émission de radio avec également des entretiens menés en dehors du contexte de la radio. Quatre extraits pertinents ont été retenus dans cette vidéographie pour l’analyse des moments visibles d’émotion. Le corpus est également constitué d’une journée d’observation de la préparation de cette émission, observation que j’ai enregistrée sous forme de notes manuscrites. Enfin une seconde journée d’observation m’a permise de compléter et de vérifier les résultats de mes analyses. Par l’analyse de toutes ces données, je tente de mieux comprendre comment et dans quelles circonstances les détenus expriment et parlent de leurs émotions. Comme nous le verrons à travers les analyses que je propose, il est principalement question de leur identité lorsque les détenus expriment ou parlent de leurs émotions. Il s’agit d’une identité qu’ils voudraient obtenir, soit celle qu’ils souhaitent regagner ou celle qu’ils souhaitent acquérir. Cette quête identitaire revêt différents aspects, entre autres, avec des références à la morale, à la famille ou encore aux murs de la prison. L’expression des émotions et l’expression identitaire apparaissent donc inextricablement liées dans leur discours.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien
Resumo:
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.
Resumo:
La guérison des plaies cutanées appendiculaires chez le cheval, à la différence de celle des plaies corporelles, se complique régulièrement. Un retard de cicatrisation s’y observe et un tissu de granulation exubérant tend à s’y développer, le tout menant à une cicatrice pathologique hypertrophiée. La pathogénie exacte du tissu de granulation exubérant chez le cheval demeure inconnue à ce jour. Une hypoxie tissulaire pourrait favoriser son développement tout comme elle semble contribuer au développement de cicatrices cutanées pathologiques similaires observées chez l’Homme. L’objectif de cette étude était d’évaluer la perfusion vasculaire et la disponibilité locale en oxygène de plaies cutanées appendiculaires et corporelles en cours de cicatrisation normale et pathologique chez le cheval, à l’aide de la thermographie infrarouge et de la spectroscopie par réflectance dans le proche infrarouge. Six juments âgées de 3 à 4 ans ont été utilisées. Trois plaies cutanées ont été créées à l’aspect dorso-latéral du canon des membres thoraciques (plaies appendiculaires), et sur la paroi costale de l’un des hémithorax (plaies corporelles). Chez chaque jument, un canon a été aléatoirement bandé dans le but d’induire la formation de tissu de granulation exubérant dans les plaies s’y trouvant, tel que rapporté. La perfusion vasculaire et la disponibilité locale en oxygène ont été évaluées séquentiellement par thermographie infrarouge et spectroscopie par réflectance dans le proche infrarouge pour chaque plaie de chaque site (thorax; membre bandé; membre non bandé) au cours du processus de cicatrisation cutanée. Un modèle linéaire à doubles mesures répétées associé à une correction séquentielle de Bonferroni a révélé des différences significatives de perfusion vasculaire et de disponibilité locale en oxygène entre les plaies appendiculaires et corporelles. Ainsi la perfusion vasculaire et la disponibilité locale en oxygène étaient significativement plus élevées dans les plaies corporelles (P<0.05) et la perfusion vasculaire était significativement plus élevée dans les plaies appendiculaires non bandées que dans celles bandées (P<0.05). Nous avons récemment rapporté une plus grande occlusion de la micro-vascularisation au niveau des plaies appendiculaires chez le cheval. Nous rapportons maintenant que la perfusion vasculaire et la disponibilité locale en oxygène sont significativement inférieures dans les plaies appendiculaires, en particulier lorsqu’un tissu de granulation exubérant s’y développe. Compilés, ces résultats sous-tendent l’hypothèse que les plaies appendiculaires souffrent d’une altération de la perfusion vasculaire à l’origine possible d’une hypoxie tissulaire qui pourrait favoriser une cicatrisation cutanée anormale, telle la formation d’un tissu de granulation exubérant.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
Dans Certainement Pas, je m’intéresserai à la problématique du jeu littéraire dans son rapport à la contrainte. Comment Chloé Delaume réussit-elle dans un premier temps à s’approprier un certain nombre de discours culturels et de formes a priori extralittéraires pour ensuite les transformer? Dans un second temps, comment s’y prend-elle pour « phagocyter » dans son écriture une pléthore de références littéraires? Conséquemment, quelle conception de la littérature livre-t-elle? Veut-elle, par l’aspect ludique de son roman, rendre un hommage filial aux auteurs d’hier et ainsi adopter une position empreinte de dévotion? Essaye-t-elle, au contraire, de « déchiqueter-dégurgiter » ces textes paternels et agir en iconoclaste? En procédant de cette façon, détruit-elle ou non le mythe de l’originalité en littérature? Finalement, comment s’effectue la réception de son texte ? Jouer le je est un projet d’écriture prolongeant les réflexions sur la place du jeu et de la contrainte dans la littérature. Prenant la forme d’une pièce de théâtre, il cherche à travailler la problématique de l’automatisme langagier actuel et devient une tentative de destruction de celui-ci. Ce texte met en scène deux personnages. La protagoniste principale, une jeune femme de vingt-cinq ans nommée Plume Liddell, étudiante en immunologie souffrant de dyslexie linguistique, participera à six séances de psychothérapie au cours desquelles elle parlera d’elle-même. L’autre personnage: la psychologue, restera muette ou presque tout au long des séances.
Resumo:
Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.
Resumo:
Depuis la seconde moitié du 19e siècle, le paysage religieux guatémaltèque a subi d’importantes transformations. L’apparition et l’expansion phénoménale de nouveaux mouvements protestants ont entrainé une réorganisation progressive de l’espace religieux jusqu’alors homogène et déclenché l’affrontement idéologique de différents systèmes de croyances. Dans cette coexistence parfois tumultueuse, le chamanisme doit, à sa façon, lutter pour conserver une place de choix et éviter d’être relégué au passé. Par l’analyse de l’activité thérapeutique, ce mémoire vise la compréhension de la dynamique relationnelle chamanique/pentecôtiste. Le portrait du contexte religieux et l’historique des développements servent tout d’abord de base à l’étude des perceptions mutuelles entre chamanes, pasteurs et convertis. Cette dernière permet non seulement d’apporter un élément nouveau en se penchant sur la vision qu’ont développée curanderos et brujos à l’égard du pasteur pentecôtiste au sein du pluralisme médico-religieux guatémaltèque, mais permet également l’approfondissement et la compréhension de la perception dégradante et archaïsante de cette mouvance évangélique à l’égard des croyances ancestrales. Ce croisement des regards et l’observation des rituels curatifs respectifs m’amènent ainsi à considérer de près les prolongements entre ces deux univers à priori distincts alors que certaines continuations sur le plan thérapeutique sont perceptibles. L’enquête de terrain révèle finalement qu’en parallèle à ces opinions et concordances, des impacts négatifs sont engendrés sur les pratiques chamaniques, amenant les détenteurs du savoir traditionnel à opérer des modifications apparentes sur le plan de leurs propres pratiques rituelles et croyances en fonction du système de valeurs pentecôtiste.
Resumo:
Le sujet de ce mémoire s'attache à circonscrire le champ de l'extase chez Georges Bataille. Il s’agit de délimiter les frontières d’un concept qui, a priori, ne peut en avoir, d’où un paradoxe à résoudre : comment parvenir à poser des limites à ce qui est illimité par essence ? Nous verrons que l’extase bataillienne rompt de façon radicale avec la tradition mystique en créant un concept qui, au lieu d’embrasser l’absolu, le tout, demeure une expérience purement intérieure. Nous nous focaliserons ensuite sur le caractère érotique de ses fondations. Bataille revendique en effet l’essence érotique, et non mystique, de l’extase. Parce que pour Georges Bataille, la mystique c’est l’impossible, nous analyserons enfin l’impasse apparente de son extase. Car si le champ de ce dernier se borne au seuil du mystique, il en résulte une puissance et portée moindres que celles de l’extase proprement mystique. Dès lors, nous nous interrogerons sur les failles d’un tel concept. Étant donné que l’extase bataillienne rejette toute mystique de son champ, il nous faudra nous pencher sur la possibilité de la définir comme un échec. Georges Bataille a-t-il conceptualisé l'extase du drogué ? Ou les débris laissés par le mort de Dieu ? A moins que l'extase bataillienne ne concrétise simplement l'agonie du spirituel... Dans cette recherche, nous définirons des notions batailliennes telles que : « nudité », « angoisse », « dépense improductive », « souveraineté » ou « petite mort ». Et pour ce faire, nous nous concentrerons en priorité sur ces ouvrages : L’expérience intérieure, Ma mère, L’histoire de l’œil, Le bleu du ciel et L’Érotisme.