529 resultados para Erreur systématique
Resumo:
La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.
Resumo:
Pour respecter les droits d'auteur, la version électronique de cette thèse a été dépouillée de ces documents visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Objectif principal: Il n’est pas démontré que les interventions visant à maîtriser voire modérer la médicamentation de patients atteints d’hypertension peuvent améliorer leur gestion de la maladie. Cette revue systématique propose d’évaluer les programmes de gestion contrôlée de la médicamentation pour l’hypertension, en s’appuyant sur la mesure de l’observance des traitements par les patients (CMGM). Design: Revue systématique. Sources de données: MEDLINE, EMBASE, CENTRAL, résumés de conférences internationales sur l’hypertension et bibliographies des articles pertinents. Méthodes: Des essais contrôlés randomisés (ECR) et des études observationnelles (EO) ont été évalués par 2 réviseurs indépendants. L’évaluation de la qualité (de ce matériel) a été réalisée avec l’aide de l’outil de Cochrane de mesure du risque de biais, et a été estimée selon une échelle à quatre niveaux de qualité Une synthèse narrative des données a été effectuée en raison de l'hétérogénéité importante des études. Résultats: 13 études (8 ECR, 5 EO) de 2150 patients hypertendus ont été prises en compte. Parmi elles, 5 études de CMGM avec l’utilisation de dispositifs électroniques comme seule intervention ont relevé une diminution de la tension artérielle (TA), qui pourrait cependant être expliquée par les biais de mesure. L’amélioration à court terme de la TA sous CMGM dans les interventions complexes a été révélée dans 4 études à qualité faible ou modérée. Dans 4 autres études sur les soins intégrés de qualité supérieure, il n'a pas été possible de distinguer l'impact de la composante CMGM, celle-ci pouvant être compromise par des traitements médicamenteux. L’ensemble des études semble par ailleurs montrer qu’un feed-back régulier au médecin traitant peut être un élément essentiel d’efficacité des traitements CMGM, et peut être facilement assuré par une infirmière ou un pharmacien, grâce à des outils de communication appropriés. Conclusions: Aucune preuve convaincante de l'efficacité des traitements CMGM comme technologie de la santé n’a été établie en raison de designs non-optimaux des études identifiées et des ualités méthodologiques insatisfaisantes de celles-ci. Les recherches futures devraient : suivre les normes de qualité approuvées et les recommandations cliniques actuelles pour le traitement de l'hypertension, inclure des groupes spécifiques de patients avec des problèmes d’attachement aux traitements, et considérer les résultats cliniques et économiques de l'organisation de soins ainsi que les observations rapportées par les patients.
Resumo:
La santé des enfants demeure une question prioritaire en Afrique sub-saharienne. Les disparités en matière de mortalité entre pays et au sein des pays persistent et se sont fortement accrues durant la dernière décennie. En dépit de solides arguments théoriques voulant que les variables contextuelles soient des déterminants importants de la santé des enfants, ces facteurs, et particulièrement les influences du contexte local, ont été étudiées beaucoup moins souvent que les caractéristiques individuelles. L'objectif principal de la présente thèse est d’identifier les déterminants individuels et contextuels associés à la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. L’analyse systématique est basée sur les données les plus récentes des enquêtes démographiques et de santé (DHS/EDS). Deux questions spécifiques sont examinées dans cette thèse. La première évalue la mesure dans la quelle le contexte local affecte la mortalité infanto-juvénile, net des caractéristiques individuelles. La seconde question est consacrée à l’examen de l’effet du faible poids à la naissance sur le risque de décès avant 5 ans. Par rapport à la première question, les analyses multi-niveaux confirment pour plusieurs pays étudiés l’importance simultanée de l’environnement familial et du contexte local de résidence dans l’explication des différences de mortalité infanto-juvénile. Toutefois, par comparaison au contexte familial, l’ampleur de l’effet de l’environnement local paraît assez modeste. Il apparaît donc que le contexte familial reste un puissant déterminant de la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. Les résultats indiquent en outre que certains attributs du contexte local de résidence influencent le risque de décès des enfants avant 5 ans, au-delà des facteurs individuels dans plusieurs pays. Cette thèse confirme l’effet contextuel de l’éducation sur la mortalité des enfants. Cet effet s’ajoute, dans certains pays, à l'effet positif du niveau individuel d’éducation de la mère sur la survie de l'enfant. Les résultats montrent aussi que le degré d’homogénéité ethnique de la localité influence fortement la probabilité de mourir avant 5 ans dans certains pays. Globalement, les résultats de cette thèse suggèrent que le défi de réduire la mortalité des enfants va au-delà des stratégies visant uniquement les facteurs individuels, et nécessite une meilleure compréhension de l’influence des facteurs contextuels. Par rapport à la deuxième question, les résultats montrent également que les facteurs individuels restent aussi très importants dans l’explication des différences de mortalité des enfants dans plusieurs pays étudiés. Nos résultats indiquent que les différences de mortalité selon le poids à la naissance sont significatives dans tous les pays inclus dans l’analyse. Les enfants nés avec un faible poids (moins de 2500 grammes) courent presque 2 à 4 fois plus de risques de mourir au cours des cinq premières années de vie que les enfants de poids normal, même après correction pour l’hétérogénéité non observée. Ce résultat suggère qu’en plus des mesures visant à réduire la pauvreté et les inégalités de revenus, la réduction de l’incidence du faible poids à la naissance pourrait apporter une contribution majeure aux Objectifs du Millénaire pour le développement; spécialement comme une stratégie efficace pour réduire le niveau de mortalité parmi les enfants de moins de cinq ans.
Resumo:
Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Problématique : Les femmes travailleuses du sexe (TS) constituent la population le plus à risque d’infection au VIH dans différents pays d’Afrique subsaharienne. Plusieurs interventions y ont ainsi été menées pour réduire le risque d’infection en influant sur les facteurs de risque. Parmi ces interventions, on peut citer la promotion de l’utilisation du préservatif de même que le dépistage et le traitement des infections sexuellement transmissibles (IST). Cependant, certaines composantes sont peu représentées dans ce panel d’interventions offertes aux femmes TS. Le conseil dépistage volontaire pourrait s’avérer une intervention utile de prévention primaire et secondaire pour cette population mais son acceptabilité est mal connue. Par ailleurs, en termes de surveillance de l’épidémie, l’évaluation de la validité de l’auto-rapport d’utilisation du préservatif, indicateur fréquemment utilisé lors d’enquêtes populationnelles serait souhaitable. Enfin, pour ce qui est de la prévention de l’infection dans cette population, l’effet du désir d’enfant sur l’utilisation non systématique du condom avec le principal partenaire régulier non payant est peu connu. Il en est de même pour la prévalence de certaines IST comme le VPH-16 et l’effet combiné de facteurs sociodémographiques, comportementaux et préventifs sur la présence de ces IST. Objectifs : Les objectifs de cette thèse sont 1) de mesurer l’acceptabilité et les conséquences du conseil dépistage volontaire du VIH chez les femmes TS de Conakry en Guinée; 2) d’évaluer la validité de l’auto-rapport de l’utilisation du préservatif dans cette population grâce à un indicateur biologique de présence de sperme, l’antigène spécifique de la prostate (PSA); 3) d’estimer la fréquence d’utilisation systématique du préservatif avec les partenaires clients et non-clients des femmes TS et d’étudier l’importance du désir d’enfant dans l’utilisation non systématique du préservatif avec le principal partenaire régulier non-client et 4) de mesurer la prévalence des IST et du VIH et d’étudier les facteurs sociodémographiques, comportementaux et préventifs qui y sont associés. Méthodologie : Nous avons mené une étude longitudinale dans la ville de Conakry en Guinée auprès de 421 femmes TS recrutées dans trois services de santé adaptés pour elles. Un devis mixte répété un an plus tard a permis de collecter des données quantitatives et qualitatives. Des analyses biologiques de dépistage des IST et du VIH ont été effectuées. Résultats : Le premier article de résultats présenté dans cette thèse montre que l’acceptabilité du conseil dépistage volontaire est élevée chez les femmes TS. En effet, les taux d’acceptation du test, de retour pour la prise de résultats et de notification du statut sérologique avoisinaient les 100%. Cette acceptabilité semblait être le fait d’une perception de risque d’infection élevé, mais aussi d’une pression sociale du milieu prostitutionnel pour effectuer le dépistage et révéler le statut sérologique. Les conséquences négatives au dépistage étaient rares. Le deuxième article montre que l’auto-rapport de l’usage récent du préservatif a une très faible sensibilité lorsque comparé à l’étalon d’or que constitue la PSA. Ainsi, la plupart des personnes chez qui la PSA était retrouvée ne rapportaient aucun rapport non protégé récent. La discordance entre l’auto-rapport d’utilisation récente du préservatif et la présence de PSA était associée à une perception de risque d’infection au VIH élevé. Enfin, la troisième section montre que si l’utilisation systématique du préservatif était très fréquente avec les clients, elle l’est beaucoup moins avec le principal partenaire régulier non-client. Le désir d’enfant de la femme TS contribue de manière significative à l’utilisation non systématique du condom avec ce type de partenaire. Des facteurs sociodémographiques, comportementaux et la coinfection par d’autres IST sont associés à la présence d’IST/VIH, ces dernières étant fréquentes dans la population des femmes TS malgré les nombreuses interventions qui y sont menées. Conclusion : En conclusion, l’on peut dire que la prévention du VIH chez les femmes TS constitue un défi nécessitant des interventions intégrées tenant compte du contexte commercial dans lequel ces interventions sont implantées et des aspirations des femmes TS en matière de reproduction.
Resumo:
Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.
Resumo:
Cette thèse tente de réfléchir sur l’écriture de Boubacar Boris Diop. Les romans de cet écrivain doivent une grande part de leur originalité à la présence obsédante des discours de la mémoire et de l’histoire. Son esthétique s’inscrit dans une revisitation permanente des récits de l'historiographie. Cette écriture convoque le passé et l'investit comme matériau dans cette exploration des formes du roman. Une telle démarche scripturale semble être la pierre angulaire de cette fiction aux confluences desquelles se rencontrent et s'intègrent systématiquement, aussi bien les genres romanesques hétérogènes de l'oralité (contes, épopées, mythes...), que des disciplines non romanesques. Cette stratégie de construction romanesque traduit, au-delà d'une simple exploration formelle et innovatrice des possibles du roman, une esthétique de distanciation et d'hétérogénéité qui traverse en filigrane l'œuvre de Boubacar Boris Diop. Cette forme d’écriture singularise son esthétique et constitue une rupture épistémologique dans le champ littéraire africain, qui a été souvent caractérisé par des récits linéaires classiques. L’usage de ces discours de l’histoire et de la mémoire, dans l’esthétique romanesque de Boubacar Boris Diop, s’articule d’abord dans une démarche de renouvellement des habitudes dans le champ littéraire africain, et ouvre aussi cette «phase autoréférentielle» (Sob, 2007 : 8) du roman en inscrivant son discours dans la modernité. Ensuite, cette pratique scripturale se construit sur l’élaboration d’un style romanesque particulier, se déployant dans une mise en scène et une parodisation permanentes du fonctionnement et des modalités de l’écriture. Sur fond d’une déconstruction perpétuelle des procédés de composition romanesque, se dessinent les contours d’une esthétique qui promeut et institue l’ambivalence généralisée comme le mode principal de son déploiement. Une telle pratique intertextuelle permet à l’écriture romanesque de se construire en confrontant les discours officiels de l’historiographie en général et l’histoire africaine contemporaine en particulier. En légitimant la déconstruction systématique comme dispositif de la composition romanesque, l’écriture se place dans une dynamique de «soupçon» qui sous-tend l’esthétique romanesque de Boubacar Boris Diop. La présente étude a le dessein de répertorier et d'analyser d'abord l'intégration des discours de l'histoire et de la mémoire, dans leurs manifestations et configurations dans l'œuvre de Diop, et ensuite, d'étudier leurs modalités d'insertion et d'utilisation dans l’élaboration de la fiction. Il s'agira, dans un cadre intertextuel, de voir comment ces discours sont investis et retravaillés par la fiction et, au-delà, d’essayer de repérer les motifs et les modalités discursives qui gouvernent leur usage. Une telle approche nous permettra d’appréhender les dimensions significatives de cette démarche scripturale et de voir éventuellement, s’il existe une poétique de la mémoire chez Boubacar Boris Diop. Les différentes théories sur la fiction, la mémoire et le discours historiographique nous serviront de charpente théorique qui sous-tendra notre thèse.
Resumo:
L’état actuel des travaux ne rend pas compte de l’ampleur des questions philosophiques et des enjeux moraux suscités par l’apparition sur la scène internationale des réfugiés climatiques. Il est pourtant urgent de leur accorder une protection à travers des accords internationaux. Les philosophes qui se sont penchés sur le sujet ont été induits en erreur tant par la multiplicité des termes employés que leur absence de définitions. Ce travail critique la tendance actuelle des militants écologistes à vouloir englober des populations aux problèmes divers sous le terme de réfugié. Banaliser l’emploi du terme de réfugié n’est pas seulement fallacieux mais également dangereux. A terme, les militants se tourneront vers la Convention de Genève pour revendiquer que les populations déplacées soient considérées comme des réfugiés. Or la Convention de Genève n’est pas un outil adéquat pour remédier au sort de ces populations. De plus, on ne peut élargir le statut de réfugié pour inclure ces populations sans risquer de perdre sa crédibilité et son efficience. Suivre la pente qu’emprunte les militants nous mènerait à accorder le même traitement aux réfugiés climatiques et aux réfugiés politiques, ce qui est une erreur. Notre hypothèse est que les habitants des petits pays insulaires à l’inverse des autres populations ont besoin d’un élargissement de la Convention de Genève. Nous arguerons que nous avons des devoirs et des responsabilités envers eux que nous n’avons pas envers les réfugiés politiques. Pour défendre ce point de vue, il faut définir clairement ce qu’est un réfugié climatique et justifier cette appellation. Nous devrons donc confronter la notion de réfugié climatique à d’autres notions concurrentes. Une fois les termes définis, nous envisagerons les enjeux éthiques à travers le prisme des questions de justice globale. Nous verrons que pour déterminer qui devrait remédier au sort des réfugiés climatique, il ne suffit pas de se référer à la responsabilité causale. Cela nous mènera à arguer que bien que séduisant, le principe pollueur-payeur n’est pas un outil adéquat pour guider la réflexion. Nous serons également amenés à nous interroger sur la pertinence d’une institution environnementale globale.
Resumo:
Malgré des années de recherches sur la douleur et les incapacités chroniques, peu de conclusions claires émergent quant aux facteurs de risque les plus pertinents. La majorité des auteurs s’entendent toutefois sur un fait, les troubles musculo-squelettiques et l’adaptation à leurs nombreuses conséquences est un processus complexe, multidimensionnel et déterminé par l’interaction de facteurs biopsychosociaux. Deux articles sont présentés avec comme objectifs généraux d’identifier les déterminants importants de l’ajustement à un trouble musculo-squelettique. Le premier article consiste en une recension des écrits systématique visant à résumer tous les facteurs pronostiques biopsychosociaux de l’ajustement multidimensionnel aux troubles musculo-squelettiques et examinant leur pertinence à déterminer ces divers indicateurs d’ajustement, principalement la participation au travail, les limitations fonctionnelles, la douleur, la qualité de la vie, la détresse psychologique et la rechute. Les 105 études prospectives recensées et correspondant aux critères d’inclusion et d’exclusion ont été analysés et chaque association significative a été résumée. Par la suite, 68 études qui ont inclus des facteurs sociodémographiques, biologiques, psychologiques et sociaux ont été analysées séparément. Leur qualité méthodologique a été évaluée, un niveau d’évidence a par la suite été établi pour chaque association entre les facteurs de risque et les diverses variables de résultats. Les divergences dans ces associations entre les différentes phases de chronicité ont également été identifiées. Un niveau d’évidence élevée a été découvert concernant le rôle des attentes de rétablissement, certaines pratiques de gestion intégrées de l’incapacité, les stratégies d’adaptation (coping), la somatisation, la comorbidité, la durée de l’épisode symptomatique et un niveau modéré d’évidence a été découvert pour les comportements de douleur. Lorsque vient le temps de prédire les divers indicateurs d’ajustement de sujets souffrant de troubles musculo-squelettiques, chacun tend à être associé à des facteurs de risque différents. Peu de différences ont été relevées lorsque les phases de chronicité ont été prises en compte. Ces résultats confirment la nature biopsychosociale de l’ajustement aux troubles musculo-squelettiques bien que les facteurs psychosociaux semblent être prédominants. Le second article est une étude prospective avec un suivi de 2 et 8 mois. Elle a été menée auprès de 62 travailleurs accidentés, principalement en phase de chronicité et prestataires d’indemnités de revenu de la CSST (Commission en Santé et Sécurité du Travail du Québec). L’objectif de cette étude était d’identifier les déterminants de l’engagement actif dans un processus de retour a travail par opposition à l’incapacité chronique, tout en adoptant une approche biopsychosociale. Cet objectif a été poursuivi en faisant l’étude, d’une part, de la pertinence de facteurs de risque ayant déjà fait l’objet d’études mais pour lesquelles aucun consensus n’est atteint quant à leur utilité prédictive et d’autre part, de certains facteurs de risque négligés, voire, même omis de ce domaine de recherche. Suite à des analyses multivariées, le genre, les attentes de rétablissement en terme de capacité à retourner au travail et l’importance du travail ont été identifiés comme des déterminants de l’incapacité chronique liée au travail. Après 8 mois, l’âge, la consolidation médicale, les symptômes traumatiques, le support au travail et l’importance du travail ont été également identifiés comme des déterminants d’incapacité chronique liée au travail. Ces résultats démontrent l’importance d’aborder l’étude de l’incapacité chronique et de la réinsertion professionnelle selon une perspective multidimensionnelle. Ces résultats corroborent également les conclusions de notre recension des écrits, puisque les facteurs psychosociaux ont été identifiés comme étant des déterminants importants dans cette étude.
Resumo:
Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.
Resumo:
La dialectique pluralisme religieux/incertitude religieuse, sur laquelle porte cette thèse, se révèle être un thème majeur dans la pensée de Peter L. Berger, en sociologie des religions et en théologie protestante. Une analyse systématique et détaillée des concepts-clés qui la constituent débouche sur la question des rapports entre sociologie et théologie à laquelle Berger lui-même s’est confronté. Abordée sous l’angle de l’idée du principe protestant, cette question s’est résolue, dès la fin des années 1960, en un certain « mariage » entre son approche de la sociologie de la connaissance et son approche théologique libérale. Les concepts de foi et théologie « inductives », de « voie médiane entre le fondamentalisme et le relativisme », semblent jaillir de cette dialectique et de ce « mariage ». Si néanmoins cette dialectique se retrace dans la pensée de Berger dès ses premières œuvres, la défense d’une via media théologique appliquée à toutes les religions se révèle être la conséquence de l’abandon (dès 1967), de sa posture théologique néo-orthodoxe. Dans cette posture, la dialectique bergérienne s’appliquait à toutes les religions mais laissait la foi chrétienne intouchée et pensée en termes de certitude. Or, une analyse critique de sa pensée permet de situer au moins à trois niveaux un certain nombre de problèmes : le niveau de sa conception de la religion manifestant une ambiguïté; le niveau des rapports entre sociologie et théologie révélant un biais libéral et une absence de contenu religieux concret pour le principe protestant; enfin le niveau de sa critique des quêtes contemporaines de certitudes religieuses, critique dont le fondement sur sa dialectique peut être questionné par des exemples de conception différente de la religion et de la certitude religieuse. Pour ces trois niveaux, l’exemple de la conception de la certitude religieuse par les protestants évangéliques permet au moins une ébauche d’un tel questionnement. Cette conception, surtout dans son idée de l’« assurance du salut», se fonde, dans son approche surnaturelle de la certitude religieuse, sur une adhésion et une confiance fortes quant aux contenus traditionnels de la foi chrétienne. Si les arguments avancés dans cette perspective demeurent discutables, ils semblent assez pertinents puisque la vitalité contemporaine de la religion à l’ère du pluralisme religieux (voir notamment le protestantisme évangélique aux États-Unis) constitue une indication que la validité empirique de la dialectique bergérienne, et la critique qu’elle fonde, sont largement problématiques si l’on tient compte de l’auto-compréhension des groupes religieux eux-mêmes.