206 resultados para validité
Resumo:
Le système nerveux autonome cardiaque est devenu une cible dans les thérapies ablatives de la fibrillation auriculaire. Nous avons étudié les voies de communication et la fonction des plexus ganglionnaires (PG) de l'oreillette gauche (PGOG) afin de clarifier la validité physiopathologique des méthodes de détection et des thérapies impliquant ces groupes de neuronnes. Méthodes: Vingt-deux chiens ont subi une double thoracotomie et ont été instrumentés avec des plaques auriculaires épidcardiques de multiélectrodes. Une stimulation électrique (2 mA, 15 Hz) des PGOG a été réalisée à l'état basal et successivement après: 1) une décentralisation vagale, 2) l'ablation par radiofréquence des plexus péri-aortiques et de la veine cave supérieure (Ao/VCS) et 3) l'ablation du PG de l'oreillette droite (PGOD). Ces procédures de dénervation ont été réalisées suivant une séquence antérograde (n = 17) ou rétrograde (n = 5). Résultats: Chez 17 des 22 animaux, la stimulation des PGOG a induit une bradycardie sinusale (149 ± 34 bpm vs 136 ± 28 bpm, p < 0.002) et des changements de repolarization (ΔREPOL) auriculaires isointégrales. Dans le groupe des ablations antérogrades, les réponses aux stimulations vagales ont été supprimées suite à la décentralisation vagale chez un seul animal, par l'ablation des plexus Ao/VCS dans 4 cas et par l'ablation du PGOG dans 5 autres animaux. Des changements ont persisté tout au long chez 2 chiens. La valeur de surface des ΔREPOL a diminué avec les dénervations séquentielles, passant de 365 ± 252 mm2 en basale à 53 ± 106 mm2 après l'ablation du PGOD (p < 0.03). Dans le groupe de dénervation rétrograde, les changements de repolarisation et chronotropiques ont été supprimés suite à l'ablation du PGOD chez deux chiens et suite à l'ablation Ao/VCS chez trois. La valeur de surface du ΔREPOL a aussi diminué après l'ablation du PGOD (269±144mm2 vs 124±158mm2, p<0.05). Conclusion: Les PGOD sont identifiables en préablation par la réponse bradycardique à la stimulation directe dans la plupart des cas. Le PGOD semble former la principale, mais non la seule, voie de communication avec le nœud sinusal. Ces résultats pourraient avoir des implications dans le traitement de la FA par méthodes ablatives.
Resumo:
Problématique : Les femmes travailleuses du sexe (TS) constituent la population le plus à risque d’infection au VIH dans différents pays d’Afrique subsaharienne. Plusieurs interventions y ont ainsi été menées pour réduire le risque d’infection en influant sur les facteurs de risque. Parmi ces interventions, on peut citer la promotion de l’utilisation du préservatif de même que le dépistage et le traitement des infections sexuellement transmissibles (IST). Cependant, certaines composantes sont peu représentées dans ce panel d’interventions offertes aux femmes TS. Le conseil dépistage volontaire pourrait s’avérer une intervention utile de prévention primaire et secondaire pour cette population mais son acceptabilité est mal connue. Par ailleurs, en termes de surveillance de l’épidémie, l’évaluation de la validité de l’auto-rapport d’utilisation du préservatif, indicateur fréquemment utilisé lors d’enquêtes populationnelles serait souhaitable. Enfin, pour ce qui est de la prévention de l’infection dans cette population, l’effet du désir d’enfant sur l’utilisation non systématique du condom avec le principal partenaire régulier non payant est peu connu. Il en est de même pour la prévalence de certaines IST comme le VPH-16 et l’effet combiné de facteurs sociodémographiques, comportementaux et préventifs sur la présence de ces IST. Objectifs : Les objectifs de cette thèse sont 1) de mesurer l’acceptabilité et les conséquences du conseil dépistage volontaire du VIH chez les femmes TS de Conakry en Guinée; 2) d’évaluer la validité de l’auto-rapport de l’utilisation du préservatif dans cette population grâce à un indicateur biologique de présence de sperme, l’antigène spécifique de la prostate (PSA); 3) d’estimer la fréquence d’utilisation systématique du préservatif avec les partenaires clients et non-clients des femmes TS et d’étudier l’importance du désir d’enfant dans l’utilisation non systématique du préservatif avec le principal partenaire régulier non-client et 4) de mesurer la prévalence des IST et du VIH et d’étudier les facteurs sociodémographiques, comportementaux et préventifs qui y sont associés. Méthodologie : Nous avons mené une étude longitudinale dans la ville de Conakry en Guinée auprès de 421 femmes TS recrutées dans trois services de santé adaptés pour elles. Un devis mixte répété un an plus tard a permis de collecter des données quantitatives et qualitatives. Des analyses biologiques de dépistage des IST et du VIH ont été effectuées. Résultats : Le premier article de résultats présenté dans cette thèse montre que l’acceptabilité du conseil dépistage volontaire est élevée chez les femmes TS. En effet, les taux d’acceptation du test, de retour pour la prise de résultats et de notification du statut sérologique avoisinaient les 100%. Cette acceptabilité semblait être le fait d’une perception de risque d’infection élevé, mais aussi d’une pression sociale du milieu prostitutionnel pour effectuer le dépistage et révéler le statut sérologique. Les conséquences négatives au dépistage étaient rares. Le deuxième article montre que l’auto-rapport de l’usage récent du préservatif a une très faible sensibilité lorsque comparé à l’étalon d’or que constitue la PSA. Ainsi, la plupart des personnes chez qui la PSA était retrouvée ne rapportaient aucun rapport non protégé récent. La discordance entre l’auto-rapport d’utilisation récente du préservatif et la présence de PSA était associée à une perception de risque d’infection au VIH élevé. Enfin, la troisième section montre que si l’utilisation systématique du préservatif était très fréquente avec les clients, elle l’est beaucoup moins avec le principal partenaire régulier non-client. Le désir d’enfant de la femme TS contribue de manière significative à l’utilisation non systématique du condom avec ce type de partenaire. Des facteurs sociodémographiques, comportementaux et la coinfection par d’autres IST sont associés à la présence d’IST/VIH, ces dernières étant fréquentes dans la population des femmes TS malgré les nombreuses interventions qui y sont menées. Conclusion : En conclusion, l’on peut dire que la prévention du VIH chez les femmes TS constitue un défi nécessitant des interventions intégrées tenant compte du contexte commercial dans lequel ces interventions sont implantées et des aspirations des femmes TS en matière de reproduction.
Resumo:
Comprendre les présupposés qui fondent les rapports au monde des individus selon leur appartenance civilisationnelle nécessite des outils et une méthode permettant de répondre à trois questions principales. D’abord, comment aborder le rapport que des individus et leurs collectivités entretiennent avec le monde et avec l’Autre selon leur propre système d’interprétations et d’explications de ces réalités? Ensuite, comment penser la diversité des collectivités humaines qui établissent de tels rapports? Finalement, comment aborder les dimensions collectives à travers les discours limités d’individus? Deux outils m’ont permis de prendre du recul face à ma subjectivité et d’accéder à un certain niveau de réalité et de validité quant aux faits rapportés et aux résultats atteints. Dans un premier temps, le réseau notionnel articulant les conceptions du monde (Ikenga-Metuh, 1987) comme phénomènes de civilisations (Mauss, 1929) accessibles par l’analyse des représentations sociales (Jodelet, 1997) permet de définir et d’étudier l’interface entre l’individuel et le collectif. Dans un deuxième temps, l’opérationnalisation de la recherche permet de cerner le XVIe siècle comme moment de rencontre propice à l’étude des civilisations andines et occidentales à travers les représentations du Soi espagnol et de l’Autre inca du chroniqueur Pedro Sarmiento de Gamboa. Finalement, la méthode d’analyse de discours (Sabourin, 2009) lève le voile sur une grammaire sociale polarisante entre le Soi et l’Autre, laquelle traverse les trois univers de sens (religieux, intellectuel et politique) observés dans le discours de Sarmiento. La mise à jour des positions théologiques, intellectuelles et politiques de l’auteur ouvre à son tour sur les récits et discours collectifs propres aux civilisations occidentales et andines de son époque, et permet un questionnement nouveau : cette polarisation est-elle unique à la localisation sociale de Sarmiento ou constitue-t-elle un phénomène civilisationnel proprement occidental ?
Resumo:
Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.
Resumo:
Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
L’un des buts de l’apprentissage des mathématiques est le développement du raisonnement et celui-ci participe à la compréhension des mathématiques. Très liée au raisonnement, la notion de preuve est aussi fondamentale à l’apprentissage des mathématiques, car elle permet d’établir la validité d’arguments mathématiques et de conférer un sens à différents concepts à travers l’explication de l’organisation logique du travail effectué. Toutefois, malgré l’importance accordée au développement de différents types de raisonnements, plusieurs élèves éprouvent des difficultés lorsqu’ils sont appelés à concevoir ou à évaluer des preuves. Dans le cadre de cette recherche, nous avons étudié l’impact de l’utilisation d’un forum électronique sur le développement d’habiletés de validation algébrique ainsi que sur le développement d’habiletés en lien avec l’évaluation de preuves en algèbre chez des élèves de 13 et 14 ans du Nouveau-Brunswick et du Québec. Les résultats laissent supposer que l’utilisation du forum électronique encourage le passage des preuves pragmatiques aux preuves intellectuelles, en plus de favoriser une utilisation adéquate des règles du débat mathématique.
Resumo:
Cette thèse porte sur les traits de personnalité associés aux comportements délinquants. De façon plus spécifique, elle s’intéresse à la contribution des traits de personnalité psychopathiques évalués à l’adolescence pour prédire les conduites délinquantes au début de l’âge adulte, lorsque sont également considérés des indices comportementaux. Elle s’inscrit dans le cadre d’une étude longitudinale plus large destinée à décrire les adolescents des Centres jeunesse du Québec. Aux fins de la thèse, un sous-groupe de jeunes, de sexe masculin, a été sélectionné : ces jeunes présentent un trouble des conduites ou ont manifesté des comportements délinquants au cours de l’adolescence. Cette sélection vise à cerner les adolescents les plus susceptibles de présenter des traits psychopathiques, eu égard à la faible prévalence du trouble dans la population générale. Quarante-huit adolescents ont accepté de participer à l'entrevue utilisant la PCL-SV (Psychopathy Checklist Screening Version). Un premier volet de la thèse valide, au Québec, une version française d’une mesure de la psychopathie adaptée à l'adolescence, la PCL-SV. Les indices de fidélité et de validité sont satisfaisants et comparables à ce qui est rapporté avec d’autres versions de la PCL auprès d’adolescents et d’adultes. Les résultats appuient la pertinence de son utilisation auprès des adolescents. Un second volet du projet porte sur la contribution d’une mesure des traits psychopathiques à l’adolescence à la prédiction des conduites délinquantes au début de l’âge adulte. Les traits psychopathiques, tels qu’évalués à l’aide de la PCL-SV, sont un apport significatif aux indices de comportements délinquants dans la prédiction des conduites délinquantes autorapportées deux ans plus tard. Finalement, un dernier volet explore une approche dimensionnelle dans la conceptualisation de la psychopathie, sous l’angle d’un modèle général de la personnalité : le Modèle à cinq facteurs (MCF). Ce volet porte sur la capacité de ce modèle, alternative au modèle catégoriel, à distinguer des jeunes au plan de la gravité de leur délinquance. Les jeunes présentant une délinquance distinctive ont une plus forte propension à rechercher les sensations fortes que ceux dont la délinquance est générale. Les résultats mettent en lumière l’importance d’une composante d’impulsivité comme élément caractéristique d’un sous-groupe de jeunes présentant une délinquance distinctive. L’étude appuie l’utilisation d’un modèle général de la personnalité pour cerner des traits associés à la psychopathie, permettant ainsi d’identifier un noyau dur de délinquants. L’ensemble du projet permet d’établir la valeur ajoutée d’une mesure des traits psychopathiques à l’adolescence pour la prédiction des conduites délinquantes. Il met en lumière l’importance d’une composante d’impulsivité chez les jeunes impliqués dans une délinquance distinctive. C’est l’une des rares études longitudinales s’intéressant à la délinquance autorapportée et à la psychopathie sous l’angle des facettes du MCF chez des adolescents. Il y a une telle hétérogénéité parmi les jeunes délinquants qu’une mesure valide de la psychopathie à l’adolescence permettra une identification plus fiable des jeunes susceptibles de poursuivre leur trajectoire criminelle à l’âge adulte. Les implications cliniques des résultats et les recommandations pour des recherches futures sont reprises dans la conclusion de l’ouvrage.
Resumo:
Des études antérieures ont démontré que le métabolisme de la rétine, son apport sanguin et sa consommation de l'oxygène sont plus élevés dans le noir (Riva C.E. et al. 1983, Wang L. et al. 1996, Tam B.M. and Moritz O.L. 2007). Les stimuli physiologiques jouent supposément un rôle important dans le développement des différents systèmes nerveux (Arthur W. Spira, David Parkinson 1991). La privation de la rétine de son stimulus physiologique, la lumière, est un moyen valable de démontrer la validité de ce concept. D'autres études ont affirmé que les injections de dichlorure de paraquat dans la cavité vitréenne causent une sévère rétinopathie (Rétinopathie induite par paraquat: RIP). Cette rétinopathie est provoquée par les dérivés réactifs de l'oxygène (DRO) générés par le paraquat (Cingolani C. et al. 2006, Lu L. et al. 2006). Le but de notre premier projet (''Dark rearing project'') était de déterminer si les conséquences nocives de l'hyperoxie postnatale chez les rats albinos SD pourraient être amoindries en élevant une portée de rats au noir. Nos résultats suggèrent qu'une augmentation du métabolisme de la rétine causée par la déprivation de lumière chez les ratons, pourrait protéger ou masquer certains effets néfastes de l'hyperoxie postnatale. Le but de notre deuxième étude (''Paraquat project'') était d'examiner les possibles points de similitude entre RIP et d'autres modèles de rétinopathies oxydatives étudiés présentement par notre équipe, à savoir: Rétinopathie induite par l'oxygène (RIO) et Rétinopathie induite par la lumière (RIL). Nos résultats suggèrent que l'injection de dichlorure de paraquat dans la cavité vitréenne cause des changements sévères de la fonction de la rétine, tandis que sa structure semble intacte. La sévérité de ces changements dépend inversement de la maturité de la rétine au moment de l'injection.
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
Les reliques sont des objets associés aux saints, ou au Christ. Une relique est porteuse d’une puissance spirituelle, une virtus, source de miracles. Depuis l’Antiquité et surtout le Moyen Âge, les reliques ont joué un rôle essentiel dans la vie des sociétés chrétiennes. Il n’en reste pas moins que les théologiens semblent n’avoir réservé au culte des reliques qu’une faible part de leurs écrits, au point d’être considéré par l’historiographie actuelle comme ayant eu « une élaboration théorique inversement proportionnelle à son importance ». Le présent mémoire se propose d’étudier, à travers les différents témoignages laissés sur le culte des reliques, durant l’Antiquité et le Moyen Âge, quelles ont pu être les conceptions, croyances et controverses autour du culte des reliques. L’hypothèse par conséquent proposée est celle d’un « problème des reliques », intimement lié aux évolutions du culte des saints et aux conceptions sur l’eucharistie tout au long du Moyen Âge. Un glissement se produit au cours du Moyen Âge, d’une critique jugée hérétique du culte en lui-même, à un refus des abus et du flou entourant ce culte au nom de l’orthodoxie. Ces paroles persistantes, à défaut d’un débat, sur la validité, les mécanismes mystiques et les abus d’un tel culte se sont ainsi cristallisées au XIIe siècle chez plusieurs auteurs contemporains, tels Thiofrid d’Echternach et surtout Guibert de Nogent, soulignant le besoin d’une élaboration théorique et d’une codification de ces pratiques.
Resumo:
La dialectique pluralisme religieux/incertitude religieuse, sur laquelle porte cette thèse, se révèle être un thème majeur dans la pensée de Peter L. Berger, en sociologie des religions et en théologie protestante. Une analyse systématique et détaillée des concepts-clés qui la constituent débouche sur la question des rapports entre sociologie et théologie à laquelle Berger lui-même s’est confronté. Abordée sous l’angle de l’idée du principe protestant, cette question s’est résolue, dès la fin des années 1960, en un certain « mariage » entre son approche de la sociologie de la connaissance et son approche théologique libérale. Les concepts de foi et théologie « inductives », de « voie médiane entre le fondamentalisme et le relativisme », semblent jaillir de cette dialectique et de ce « mariage ». Si néanmoins cette dialectique se retrace dans la pensée de Berger dès ses premières œuvres, la défense d’une via media théologique appliquée à toutes les religions se révèle être la conséquence de l’abandon (dès 1967), de sa posture théologique néo-orthodoxe. Dans cette posture, la dialectique bergérienne s’appliquait à toutes les religions mais laissait la foi chrétienne intouchée et pensée en termes de certitude. Or, une analyse critique de sa pensée permet de situer au moins à trois niveaux un certain nombre de problèmes : le niveau de sa conception de la religion manifestant une ambiguïté; le niveau des rapports entre sociologie et théologie révélant un biais libéral et une absence de contenu religieux concret pour le principe protestant; enfin le niveau de sa critique des quêtes contemporaines de certitudes religieuses, critique dont le fondement sur sa dialectique peut être questionné par des exemples de conception différente de la religion et de la certitude religieuse. Pour ces trois niveaux, l’exemple de la conception de la certitude religieuse par les protestants évangéliques permet au moins une ébauche d’un tel questionnement. Cette conception, surtout dans son idée de l’« assurance du salut», se fonde, dans son approche surnaturelle de la certitude religieuse, sur une adhésion et une confiance fortes quant aux contenus traditionnels de la foi chrétienne. Si les arguments avancés dans cette perspective demeurent discutables, ils semblent assez pertinents puisque la vitalité contemporaine de la religion à l’ère du pluralisme religieux (voir notamment le protestantisme évangélique aux États-Unis) constitue une indication que la validité empirique de la dialectique bergérienne, et la critique qu’elle fonde, sont largement problématiques si l’on tient compte de l’auto-compréhension des groupes religieux eux-mêmes.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.
Resumo:
La pratique de la médecine en centre hospitalier est encadrée par une variété de normes qui résultent en un contrôle des activités cliniques du médecin. Ce mémoire présente une analyse du régime instauré par la Loi sur les services de santé et les services sociaux et ses règlements afin de dégager les différents mécanismes de contrôle des activités du médecin exerçant en centre hospitalier. La pratique du médecin sera fonction de son intégration à la structure administrative du centre hospitalier, telle que notamment prévue par un plan d’organisation et des ressources et un plan des effectifs médicaux et dentaires. Ces plans contiennent des balises générales qui auront à être considérées par l’établissement dès le recrutement de médecins et témoignent d’une préoccupation du législateur d’assurer une distribution cohérente de l’offre de soins et de services de santé à l’échelle de la province. Le rattachement du médecin à un département par l’octroi d’un statut et de privilèges de pratique rendra applicable une normativité particulière, mise en œuvre par le chef de département clinique, par exemple la liste de garde et les règles d’utilisation des ressources médicales et matérielles. La validité et les effets de la pratique par laquelle les médecins réaménagent entre eux l’exécution des obligations qui leur incombent par des ententes variées sera également abordée à la lumière de récents développements jurisprudentiels sur la question. La mise en place d’un mécanisme de traitement des plaintes et d’une procédure disciplinaire en centre hospitalier sera également abordée ainsi que la situation des différentes parties impliquées, tant en ce qui a trait aux garanties juridiques applicables que relativement à la possibilité de recours administratifs ou auprès du Tribunal administratif du Québec.