600 resultados para gestion de risques
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade M.S. ès sciences (M. Sc) en sciences infirmières, option administration des sciences infirmières
Resumo:
Thesis written in co-mentorship with Robert Michaud.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option administration en sciences infirmières
Resumo:
Les régions nordiques à pergélisol seront largement affectées par l'augmentation prévue des températures. Un nombre croissant d’infrastructures qui étaient autrefois construites avec confiance sur des sols gelés en permanence commencent déjà à montrer des signes de détérioration. Les processus engendrés par la dégradation du pergélisol peuvent causer des dommages importants aux infrastructures et entrainer des coûts élevés de réparation. En conséquence, le contexte climatique actuel commande que la planification des projets dans les régions nordiques s’effectue en tenant compte des impacts potentiels de la dégradation du pergélisol. Ce mémoire porte sur l’utilisation de systèmes d’information géographique (SIG) appliqués à l’évaluation du potentiel d’aménagement des territoires situés en milieu de pergélisol. En utilisant une approche SIG, l’objectif est d’élaborer une méthodologie permettant de produire des cartes d'évaluation des risques afin d’aider les collectivités nordiques à mieux planifier leur environnement bâti. Une analyse multi-échelle du paysage est nécessaire et doit inclure l'étude des dépôts de surface, la topographie, ainsi que les conditions du pergélisol, la végétation et les conditions de drainage. La complexité de l'ensemble des interactions qui façonnent le paysage est telle qu'il est pratiquement impossible de rendre compte de chacun d'eux ou de prévoir avec certitude la réponse du système suite à des perturbations. Ce mémoire présente aussi certaines limites liées à l’utilisation des SIG dans ce contexte spécifique et explore une méthode innovatrice permettant de quantifier l'incertitude dans les cartes d'évaluation des risques.
Resumo:
Suite aux grands changements politiques, économiques et sociaux que l’Occident a connus depuis plus d’un siècle, de nombreux problèmes ont émergé, de nouveaux défis ont été lancés et plusieurs approches et solutions ont été avancées. L’avènement de la démocratie, un exploit humain inestimable, a plus ou moins règlementé la pluralité idéologique, pour permettre un exercice politique organisé. Aujourd’hui, dans le nouvel ordre mondial, c’est la pluralité morale et religieuse qui a besoin d’être gérée; un défi pour les institutions démocratiques et pour la société civile, afin de réaliser un mieux vivre-ensemble dans le dialogue, la compréhension et le compromis. Or, beaucoup de travail est encore à faire : dans un premier temps, à l’intérieur de chaque tradition religieuse; dans un deuxième temps, entre les différentes traditions; et dans un troisième temps, entre ces traditions et la modernité. Le ‘dogmatisme’ est au cœur de ces débats, qu’il soit d’ordre traditionnel ou moderne, il entrave la raison dans son processus de libération et d’émancipation. La problématique de ce mémoire concerne la gestion de la pluralité morale et religieuse en Occident. Dans ce travail, nous allons essayer de démontrer comment la libération du dogmatisme en général et la libération du ‘dogmatisme’ musulman, en particulier, peuvent contribuer à la réalisation d’un mieux vivre-ensemble en Occident. Pour ce faire, nous analyserons les projets de deux penseurs musulmans contemporains : Muhammad Arkoun et Tariq Ramadan. Notre recherche va essentiellement se pencher sur leurs attitudes vis-à-vis de la tradition et de la modernité, car, nous pensons que l’enjeu du ‘dogmatisme’ est lié aux rapports des musulmans à leur tradition et à la modernité. Selon nos deux penseurs, la libération du ‘dogmatisme’ musulman n’est possible qu’à condition de pouvoir changer à la fois notre rapport à la tradition et à la modernité. Arkoun pense que ce changement doit suivre le modèle de la libération occidentale, au moyen d’une critique subversive de la tradition islamique. Cependant, Ramadan opte pour une réforme radicale de la pensée islamique qui vise une critique globale de la tradition, mais, qui épargne les fondements de la foi : le ‘sacré’.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions.
Resumo:
Manifestation du processus de rationalisation capitaliste contemporain, la gestion des ressources humaines s’est largement développée et diffusée comme paradigme d’organisation des relations sociales au sein de l’entreprise, mais aussi à l’extérieur de celle-ci. En m’appuyant sur l’étude Les employés de Siegfried Kracauer (2004 [1931]) ayant mis en lumière les effets de la rationalisation de l’entreprise moderne sur les traits de mentalités des employés dans les années 1920, je propose de me pencher sur les employés en gestion des ressources humaines aujourd’hui. Plus précisément, c’est la tension dont ils sont à la fois les porteurs et les objets qui constitue le coeur de ce mémoire. Cette tension lie la fonction particulière que ces employés sont appelés à jouer dans l’entreprise et leur propre condition comme employé. Ainsi, c’est par la constitution de rapports à la tension sous une forme idéaltypique— propre à l’approche wébérienne — que ce mémoire propose d’appréhender la condition des employés en gestion des ressources humaines. L’interprétation des rapports à la tension et à la pratique professionnelle de ces employés, à l’aune de quatre idéaltypes construits à cette fin (le sous-officier comptable, le sous-officier sportif, celle qui prend sur soi et le synthétique), permet de mettre en lumière des dilemmes qu’ils sont enclins à vivre, dilemmes inhérents à leur condition d’employés dans le monde rationalisé.
Resumo:
Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.
Resumo:
Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.
Resumo:
Pour devenir plus flexible, le secteur public a ouvert la voie à de nouveaux principes inspirés de la gestion propre aux firmes, soit la marchandisation des services (Fairbrother et Poynter, 2001). Notre recherche souhaite mieux comprendre les facteurs qui peuvent influencer l’implication du syndicat lorsque la marchandisation est introduite dans la gestion de la prestation des services municipaux. Pour se faire, nous avons choisi de comparer des cas des municipalités dans deux pays, la Ville de Québec et Edinburgh en Écosse, afin de nous aider à comprendre davantage les interactions entre les influences nationales et locales. Nous proposons que les ressources de pouvoir du syndicat local et la stratégie patronale influencent l’implication du syndicat dans la gestion de la prestation des services municipaux, peu importe le contexte national. Les résultats de la recherche nous indiquent que les ressources de pouvoir et la stratégie patronale influencent directement l’implication syndicale. Alors que les ressources de pouvoir donnent un rapport de force au syndicat face à l’employeur, la stratégie patronale peut encourager ou freiner l'implication syndicale. Nos résultats ont aussi soulevé certaines différences entre les contextes nationaux de l’Écosse et du Québec affectant l’implication syndicale: les législations de « Best Value » au Royaume-Uni et celles encadrant les conventions collectives et relations de travail au Québec. Ainsi, des recherches futures sont nécessaires pour mettre à l’épreuve les modèles nationaux couramment utilisés en relations industrielles pour contribuer à la création d’une nouvelle théorie comparative.
Resumo:
Le développement de la nutrigénétique/nutrigénomique (NGx) a suscité de nombreuses attentes puisque les retombées qui lui sont associées s’avèrent potentiellement bénéfiques autant pour les individus en santé que pour les individus malades. De grandes attentes avaient également été associées au Projet de décryptage du Génome Humain (PGH). Aujourd’hui, seules quelques attentes de celles envisagées se sont concrétisées. Le PGH a donc évolué dans un contexte marqué par du biohype, soit la promotion d’attentes exagérées, voir irréalistes. Étant donné l’importance des attentes associées avec le développement de la NGx et des limites méthodologiques auxquelles fait encore face la recherche clinique conduite dans ce domaine, l’objectif principal de cette thèse est de déterminer si les publications scientifiques rapportant des résultats de recherches cliniques effectuées en NGx contribuent à l’émergence d’un phénomène de biohype. Plus spécifiquement, il s’agira également de documenter la perception des chercheurs oeuvrant dans le domaine de la NGx du phénomène de biohype, d’identifier certains facteurs qui pourraient expliquer son émergence dans la littérature scientifique propre à ce domaine et de proposer des pistes d’actions pour limiter les risques associés à ce phénomène. Nous avons tout d’abord procédé à une analyse documentaire d’articles scientifiques rapportant des résultats issus de recherches cliniques en NGx. Celle-ci nous a révélé que plusieurs bénéfices étaient promus dans cette littérature alors même que les limites méthodologiques n’étaient pas d’emblée présentées et discutées. Cette observation nous portait à croire que ces bénéfices étant potentiellement prématurés. Nous avons ensuite voulu valider notre constat auprès des chercheurs œuvrant principalement dans le domaine de la NGx. Cette enquête nous a permis de constater que les chercheurs étaient généralement en accord avec les bénéfices que nous avons recensés dans les articles scientifiques. Toutefois, ils n’envisageaient pas leur concrétisation à moyen terme. Par ailleurs, cette enquête nous a également révélé que les limitations méthodologiques actuellement rencontrées dans la conduite de recherches cliniques soulevaient des doutes quant à la faisabilité des bénéfices promut dans les articles scientifiques. Ces données viennent confirmer notre observation à savoir qu’un phénomène de biohype serait réellement en émergence dans les articles scientifiques rapportant des résultats de recherches cliniques en NGx. Outre des informations concernant les publics ciblés par les chercheurs et les éléments que doivent contenir un article scientifique, cette enquête nous a également aidés à mieux comprendre les avantages associés à la promotion de bénéfices. Selon la majorité des chercheurs interrogés, la promotion de bénéfices dans un article scientifique augmenterait les chances d’un manuscrit d’être publié et favoriserait la continuité du financement du domaine de recherche. Cette activité étant caractérisée par un environnement compétitif, la promotion de bénéfices semble être une avenue à envisager pour se démarquer. Quoique la promotion de bénéfices prématurés ou exagérés ne soit pas considérée comme de l’inconduite scientifique, elle peut causer entre autres un affaiblissement du sentiment de confiance entre le public et les chercheurs et ultimement, contrevenir à la continuité d’une saine activité de recherche. À la lumière de ces données, nous croyons qu’une des stratégies qui permettrait de prévenir l’apparition des risques associés au phénomène de biohype serait de sensibiliser les chercheurs et les éditeurs de journaux scientifiques à ces derniers. Plus particulièrement, nous encourageons l’intégration de lignes directrices portant sur la gestion du biohype dans les codes de conduites qui ont été mis en place pour favoriser les bonnes pratiques en recherche.
Resumo:
Les écrits rapportent qu’entre 10% et 40% des personnes atteintes de troubles mentaux ont présenté des comportements agressifs depuis l’établissement du diagnostic, et qu’entre 50% et 65% de ces comportements sont perpétrés envers les membres de la famille (Estroff et al., 1998). Or, les aidants naturels se sentent fréquemment démunis devant le comportement impulsif et agressif de leur proche atteint d’un trouble de santé mentale (Bonin & Lavoie-Tremblay, 2010) et la majorité des proches aidants ne reçoivent pas de soutien professionnel (Doornbos, 2001). À cet effet, une équipe de chercheurs et d’organismes communautaires ont mis sur pied un projet de formation adaptée par et pour les familles relativement à la gestion des comportements agressifs de leur proche atteint d’un trouble de santé mentale s’appuyant sur l’approche OMEGA communautaire (Bonin et al., 2011). La présente recherche est inspirée du modèle de Fresan et ses collaborateurs (2007), qui inclut les familles et leur proche atteint dans la prévention de la rechute et le rétablissement de ce dernier. Cette étude avait donc pour but de décrire et analyser, par un devis mixte, les perceptions de l’agressivité, du fonctionnement familial ainsi que de l’observance au traitement médical de personnes atteintes de troubles mentaux, suite à une formation de gestion des comportements agressifs adaptée par et pour des membres de familles, et suivie par leur proche aidant. Des questionnaires auto-administrés ont été remis et complétés par 25 personnes atteintes et comprenaient trois instruments qui étaient : 1. un questionnaire sociodémographique; 2. le Basis-24 (Eisen, 2007) permettant d’évaluer la condition mentale de la personne atteinte; 3. l’Échelle de perception de l’agressivité permettant de mesurer la fréquence et le niveau des comportements agressifs (De Benedictis et al., 2011); et 4. l'Échelle du fonctionnement familial permettant de mesurer le fonctionnement familial (Epstein, Baldwin, & Bishop, 1983). Des questions supplémentaires au questionnaire portaient sur l’observance au traitement médical et sur les changements observés. Des analyses descriptives et corrélationnelles bivariées ont été réalisées pour analyser les données quantitatives. Par la suite, des entrevues individuelles ont été réalisées auprès de huit personnes atteintes de troubles mentaux dont le membre de famille avait suivi la formation de gestion des comportements agressifs. La méthode d’analyse classique de Miles et Huberman (2003) a été utilisée pour réaliser l’analyse des données. L’analyse des données a permis de dégager les perceptions des personnes atteintes de troubles mentaux au regard de la formation de gestion des comportements agressifs que leur membre de famille avait suivi. Ainsi, le programme de formation OMÉGA adaptée par et pour les familles permettrait d’une part de diminuer l’agressivité et, d’autre part, d’améliorer le climat familial. De plus, selon les personnes atteintes, leur membre de famille était plus à l’écoute et faisait moins preuve d’intrusion, ce qui diminuaient les conflits et favorisaient une meilleure dynamique familiale. Cette étude a mis en évidence qu’il est nécessaire d’impliquer les familles dans les programmes de prévention de la rechute de la maladie mentale dans les soins de première ligne. Cette étude contribue ainsi à l’amélioration des connaissances sur la dynamique famille-patient et sur le rétablissement des personnes atteintes de troubles mentaux. Aussi, cette recherche propose des recommandations pour la recherche, la pratique, la formation et la gestion en sciences infirmières.
Resumo:
La documentation sur les interventions de gratuité sélective des soins est encore insuffisante et surtout focalisée sur leurs effets au niveau de l’utilisation des services de santé ou de la réduction des dépenses catastrophiques. Leurs effets sociaux sont occultés par les recherches. L’originalité de cette thèse tient au fait qu’elle constitue la première recherche qui s’est consacrée à cela. Ses résultats sont structurés en quatre articles. Le premier article montre que la gratuité sélective des soins est socialement acceptée, car elle est vue comme contributive au renforcement du lien social. Toutefois, le choix des cibles bénéficiaires est remis en cause. Au nom d’arguments moraux et humanitaires, les communautés préfèrent inclure les personnes âgées dans le ciblage, quitte à les substituer aux plus pauvres, les indigents. Néanmoins, le ciblage des indigents n’a pas entrainé de stigmatisation. Le deuxième article souligne que la fourniture gratuite de soins aux populations par les villageois membres des comités de gestion des centres de santé a contribué au renforcement de leur pouvoir d’agir et celui de leur organisation. Cependant, pour que la participation communautaire soit effective, l’étude montre qu’elle doit s’accompagner d’un renforcement des compétences des communautés Le troisième article soutient que la suppression du paiement des soins a permis aux femmes de ne plus avoir besoin de s’endetter ou de négocier constamment avec leurs maris pour disposer de l’argent des consultations prénatales ou des accouchements. Ce qui a contribué à leur empowerment et rendu possible l’atteinte d’autres réalisations au plan sanitaire (augmentation des accouchements assistés), mais aussi social (renforcement de leur position sociale). Le quatrième article s’est intéressé à étudier la pérennité de ces interventions de gratuité des soins. Les résultats suggèrent que le degré de pérennité de la prise en charge des indigents (district de Ouargaye) est moyen correspondant au degré le plus élevé dans une organisation alors que celui de la gratuité des accouchements et des soins pour les enfants (districts de Dori et de Sebba) est précaire. Cette différence de pérennité est due principalement à la différence d’échelle (taille des populations concernées) et d’ampleur (inégalité des ressources en jeu) entre ces interventions. D’autres facteurs ont aussi influencé cette situation comme les modalités de mise en œuvre de ces interventions (approche projet à Dori et Sebba vs approche communautaire à Ouargaye) Au plan des connaissances, l’étude a mis en exergue plusieurs points dont : 1) l’importance de prendre en compte les valeurs des populations dans l’élaboration des réformes ; 2) la pertinence sociale du ciblage communautaire de sélection des indigents ; 3) la capacité des communautés à prendre en charge leurs problèmes de santé pourvu qu’on leur donne les ressources financières et la formation minimale ; 4) l’importance du processus de pérennisation, notamment la stabilisation des ressources financières nécessaires à la continuité d’une intervention et l’adoption de risques organisationnels dans sa gestion ; 5) l’importance de la suppression de la barrière financière au point de services pour renforcer l’empowerment des femmes et son corolaire leur recours aux services de soins.