436 resultados para régression épistémique
Resumo:
L’objectif principal de ce mémoire est l’étude de la relation entre le navettage, soit le fait de faire la navette quotidiennement entre le domicile et le travail, et l’épuisement professionnel. Plus précisément, les rôles de modération du moyen de transport et de la région du milieu de travail, tant distinctement que simultanément, sur la relation entre la durée et la distance de navettage et l’épuisement professionnel sont examinés. L’épuisement professionnel a été mesuré grâce au MBI-GS (Maslah Burnout Inventory – General Survey). Les données proviennent de l’étude SALVEO menée au Canada par l’Équipe de Recherche sur le Travail et la Santé Mentale (ERTSM). Les données ont été recueillies entre 2009 et 2012 dans 63 milieux de travail selon un taux de réponse de 71.3 %, équivalent à 2162 employés. Les multiples analyses de régression effectuées sont pamis lespremières à lier significativement le navettage à l’épuisement professionnel. En effet, les navetteurs qui travaillent en grandes régions urbaines sont significativement plus épuisés émotionnellement que les travailleurs des petites régions urbaines ou des régions rurales. Il existe une relation curvilinéaire entre la durée de navettage et la dimension du cynisme. Une relation curvilinéaire existe également entre la durée de navettage et la mesure globale de l’épuisement professionnel. Enfin, le moyen de transport ainsi que la région dans laquelle se situe l’établissement de travail modèrent simultanément la relation entre la durée de navettage et la dimension de l’efficacité professionnelle. Globalement, les résultats suggèrent que le stress de navettage provient de l’ajustement quotidien des travailleurs à leurs conditions de navettage, qui se répercute en emploi. Les organisations devraient donc s’intéresser au développement de pratiques de gestion en ressources humaines misant sur l’amélioration des conditions de navettage de leurs employés. Ces pratiques RH pourraient moduler la relation entre le navettage et les problèmes de santé mentale au travail.
Resumo:
La dépression est une psychopathologie répandue qui débute fréquemment au cours de l’adolescence. Maintes répercussions tant personnelles qu’économiques et sociales ont été associées à ce trouble. Plusieurs facteurs, dont la consommation de cannabis, ont été identifiés comme étant susceptibles d’influencer l’apparition et le développement de symptômes dépressifs. Il existe toutefois une absence de consensus par rapport au lien entre la consommation de cannabis et les symptômes dépressifs à l’adolescence, qui pourrait notamment résulter de différences méthodologiques telles que le contrôle de tierces variables. Parmi ces variables, la relation parent-adolescent pourrait modérer la relation entre la consommation de cannabis et les symptômes dépressifs. Ce mémoire vise d’une part à vérifier la relation entre la consommation de cannabis et la manifestation de symptômes dépressifs à l’adolescence et, d’autre part, le rôle modérateur de la relation parent-adolescent sur ce lien. L’échantillon compte 1 740 adolescents québécois suivis longitudinalement du secondaire II au secondaire IV. Des analyses de régression multiple hiérarchique ont été effectuées afin de tester les hypothèses à l’étude. Les résultats démontrent une faible relation positive entre la consommation de cannabis en secondaire II et les symptômes dépressifs évalués deux ans plus tard. Par ailleurs, une seule dimension de la relation parent-adolescent, soit le faible soutien parental, a été identifiée comme ayant un pouvoir prédictif sur les symptômes dépressifs. Cet effet d’interaction explique néanmoins une variance insuffisante pour être significatif d’un point de vue clinique. Les implications de ces résultats pour la recherche sont discutées.
Resumo:
La maladie de Crohn (MC) est une maladie chronique et récidivante du tractus gastro-intestinal. Dans la population pédiatrique, elle est très souvent accompagnée d'un retard de croissance (jusqu'à 88%). La MC se manifeste souvent autour de la puberté d’où l’importance du retard de croissance linéaire à ce stade crucial du développement de l’enfant. Une des questions essentielles est de savoir si le retard de croissance peut persister à l'âge adulte. La littérature est inconsistante sur ce point. En ce qui concerne les facteurs de risque potentiels, les corticostéroïdes (CS) qui sont la première ligne de traitement pour la majorité des patients, ont été largement impliqués. Bien qu'il existe des explications démontrant le mécanisme d’action des corticostéroïdes sur la croissance linéaire, les études cliniques impliquant l'utilisation CS soit à un retard de croissance temporaire ou permanent restent controverser et limiter. Nous avons examiné cette relation importante dans notre étude présente. Les principaux objectifs de l'étude sont les suivants: 1. D’évaluer la fréquence du retard de croissance chez le jeune atteint de la maladie de Crohn et qui a reçu des corticostéroïdes (CS) au cours de son traitement et 2. D’évaluer les facteurs de risque associés au retard de croissance temporaire ou permanent dans cette population. Méthodes : Afin d’atteindre nos objectifs, on a mené une étude de cohorte rétrospective. Cette cohorte comprend des patients qui ont été diagnostiqués de la MC (avant l’âge de 18 ans) à la clinique de gastroentérologie du Centre Hospitalier-Universitaire Sainte-Justine (CHUSJ) à Montréal. Ces patients ont tous reçus des CS en traitement initial(en excluant les rechutes). Les dossiers médicaux des patients ont été examinés de façon prospective afin de d’acquérir des informations sur : 1. La taille à chaque visite médicale; 2. La durée du traitement des CS; 3. L’administration de médication concomitante; 4. D’autres variables cliniques telles que l’âge au diagnostic, le sexe, la localisation et le comportement de la maladie. Pour ceux qui avaient atteints l’âge de 18 ans et qui ne fréquentaient plus la clinique, leur taille finale a été obtenue en les contactant par téléphone. Leurs parents ont aussi été contactés afin d’obtenir leur taille. On a converti nos résultats en scores de Z ou scores-Z ajustée pour l’âge et le sexe en utilisant la classification 2007 de l’Organisation Mondiale de la Santé(OMS). On a aussi calculé les tailles adultes cibles avec les données que nous avons récoltées. La raison de tout cela était de rendre nos résultats comparables aux études antérieures et renforcer ainsi la validité de nos trouvailles. Les enfants avec un score de Z<-1.64 (qui correspond au 5ème percentile) ont été considérés comme ayant un retard de croissance temporaire. Les scores-Z pour les tailles adultes finales ont été calculés en utilisant les mêmes normes de référence selon le sexe pour les personnes âgées de 17,9 ans. Un z-score <-1,64 a aussi été utilisé pour classer les individus avec un retard permanent. Ajouter à cela, ceux ayant une taille adulte finale <8,5cm de leur taille adulte cible (estimée à partir des hauteurs parentales) étaient considérés comme ayant un retard de croissance permanent. Des analyses de régression logistiques ont été faites pour examiner les facteurs associés à un retard de croissance temporaire et/ou permanent. Résultats : 221 patients ont été retenus. L’âge moyen de diagnostic était de 12.4 années et l’âge moyen de prise de CS était de 12.7 années. La répartition par sexe avait une légère prédominance masculine 54.3% contre 45.7% pour le sexe féminin. La majorité des patients étaient d’âge pubère (62.9%). On a surtout des patients avec une prédominance de maladie de type inflammatoire (89.1%) et localisé au niveau de l’iléo-colon (60.2%). Presque tous avaient pris une médication concomitante (88.7%) et n’avaient subi aucune chirurgie (95.9%). 19% des patients avaient un retard de croissance temporaire. L'analyse univariée a suggéré que le plus jeune âge au moment du diagnostic de la maladie et l'âge précoce à l'administration de stéroïdes étaient associés à un risque accru de retard de croissance temporaire. L’administration de CS à un jeune âge a été la seule variable (dans l’analyse multivariée) associée à un risque élevé de retard de croissance temporaire. En comparant à ceux ayant reçu des CS après l’âge de 14 ans (tertile 3), l’administration de CS à un âge précoce est fortement associé à un risque de retard de croissance (<11.6ans, OR: 6.9, 95% CI: 2.2-21.6, p-value: 0.001; 11.8ans-14ans, OR: 5.4, 95% CI: 1.7-17.1, p-value: 0.004). 8 (5.8%) sur 137 des sujets avaient une taille adulte finale <8,5cm de leur taille adulte cible. Dans l’analyse de régression linéaire multivariée, seul la variable de la taille adulte cible était associé à un changement de la taille adulte finale. Conclusion : Nos résultats suggèrent que la fréquence du retard de croissance permanent chez les enfants atteint de la MC est très faible. Un retard temporaire ou permanent de la croissance n’ont pas été associés à une augmentation de la quantité de CS administrée bien que l'administration de CS à un âge précoce soit associée à un retard de croissance temporaire.
Resumo:
Si la santé psychologique au travail retient de plus en plus l’attention de la communauté scientifique et des milieux de pratique, certains aspects du phénomène restent néanmoins à explorer. Notamment, les études se sont peu attardées au fonctionnement de l’individu dans l’organisation, focalisant plutôt sur les expériences subjectives associées au bien-être et à la détresse psychologiques. En outre, l’état des connaissances sur les mécanismes sous-jacents à la santé psychologique au travail demeure embryonnaire. Faute d’écrits sur la question, la compréhension du construit s’avère partielle. Devant ce constat, la présente thèse vise à modéliser la santé psychologique au travail en y intégrant des indicateurs du fonctionnement de l’employé. Dans cette optique, cinq études, regroupées en deux articles, ont été menées auprès de quatre échantillons indépendants (Article 1 : NA = 296, NB = 350, NC = 139; Article 2 : NB = 330, NC = 128; ND = 389). Le premier article a pour objet de développer une conceptualisation et une mesure du fonctionnement de l’individu dans l’organisation. Prenant appui sur les travaux en socialisation organisationnelle et sur la théorie de la conservation des ressources (Hobfoll, 1989, 2001), l’ajustement cognitif au travail est proposé à titre d’indicateur additionnel de la santé psychologique au travail. Des analyses factorielles exploratoires et confirmatoires, de même que des analyses de cohérence interne, d’invariance temporelle et de régression, confirment les qualités psychométriques de l’instrumentation et étayent la validité de l’ajustement cognitif au travail comme indicateur de la santé psychologique au travail. Le second article s’appuie sur la conceptualisation du fonctionnement de l’employé présentée dans le premier article pour tester une modélisation de la santé psychologique au travail. Se fondant sur la théorie de la conservation des ressources (Hobfoll, 1989, 2001), la santé psychologique au travail est modélisée comme un processus incluant quatre indicateurs, soit le bien-être psychologique, la détresse psychologique, l’ajustement cognitif et les réponses comportementales de stress au travail. Deux mécanismes distincts sont mis de l’avant pour expliquer les relations unissant les indicateurs positifs de santé psychologique au travail (c.-à-d., le bien-être psychologique et l’ajustement cognitif) et celles caractérisant les indicateurs négatifs (c.-à-d., la détresse psychologique et les réponses comportementales de stress). Des analyses acheminatoires et d’invariance transculturelle révèlent la présence des deux mécanismes et montrent que, au-delà de l’influence des demandes en emploi, le bien-être psychologique exerce un effet médiateur sur la relation positive entre des ressources personnelles (c.-à-d., optimisme et résilience) et organisationnelle (c.-à-d., climat de travail) et l’ajustement cognitif au travail. Les résultats mettent également en exergue le rôle médiateur de la détresse psychologique sur la relation négative entre les mêmes ressources et les réponses comportementales de stress au travail. Une discussion générale précise la portée des résultats présentés dans le cadre des deux articles.
Resumo:
Le niveau de violence, tel que mesuré par le taux d’homicide, varie beaucoup d’un pays à l’autre. Dans certains pays, on note un taux de 0,5 par 100,000 habitants tandis que pour d’autres, ce taux se situe autour de 50 par 100,000 habitants. Parmi les facteurs évoqués dans la littérature scientifique pour expliquer cette variation, on retrouve des concepts tels que la pauvreté, les inégalités et d’autres facteurs sociaux, économiques ou démographiques. Or, il y a relativement peu d’études qui examinent le rôle éventuel de la qualité du système de justice sur l’incidence de la violence. La présente étude s’intéresse au rôle de la corruption policière sur les variations du taux d’homicide entre les pays du monde. La corruption se définit comme le fait d’agir contre son devoir. Dans le cadre de l’activité policière, la corruption peut prendre la forme d’abus du pouvoir discrétionnaire, de recours à des moyens illégaux ou d’acceptation de récompenses. Considérant que ces différentes formes de corruption policière ont pour principale conséquence de créer des inégalités, il ne fait peu de doute que ce que font les policiers influence le taux de criminalité d’un endroit donné. Cette étude tente donc de déterminer s’il existe un lien entre le niveau de corruption policière et le niveau de violence, tel que mesuré par le taux d’homicide pour 143 pays. Des analyses statistiques univariées et bivariées sont réalisées afin de déterminer les indicateurs pertinents à inclure dans les différents modèles de régression multiple. Les résultats de nos analyses indiquent qu’une relation relativement forte et significative est retrouvée entre la corruption policière et le taux d’homicide. De plus, les résultats montrent que les inégalités influencent la corruption policière et que ces deux phénomènes influencent à leur tour le taux d’homicide.
Resumo:
Contexte : Trois audits de l’AVC ont été menés en Catalogne en 2005, 2007 et 2010. Ces audits évaluent un nombre limité des recommandations à l’aide d’indicateurs. Le but de l’étude est de décrire le suivi des recommandations spécifiques aux soins infirmiers en 2010, d’analyser l’évolution du suivi en 2005, 2007 et 2010 et d’identifier des facteurs reliés à ce suivi. Méthode : Il s’agit d’une étude descriptive/corrélationnelle. Six indicateurs spécifiques aux soins infirmiers ont été mesurés. Les données ont été collectées à partir des dossiers médicaux des patients admis dans 46 hôpitaux publics. L’évolution du suivi a été analysée à l’aide des chi-carrés et des modèles de régression ont été utilisés afin d’identifier les facteurs reliés à ce suivi. Résultats : Au total 2190 cas ont été évalués. Trois des six indicateurs évalués montrent un suivi >70% : mobilisation précoce (78,6%), réalisation d’un ECG basal (97%) et réalisation d’une glycémie basale (97,7%). Le dépistage de la dysphagie améliore au cours des trois audits (p<0,001). L’évaluation de l’humeur, s’est détériorée par rapport à 2007 (p=0,002). Les analyses ajustées pour les caractéristiques et la gravidité des patients montrent un majeur suivi du dépistage de la dysphagie parmi les cas admis en neurologie (OR : 5,28, IC 95%, 1,35 à 20,6) et/ou dans les centres de plus de 300 admissions/année par AVC (OR : 4,31, IC 95%, 1,04 à 17,8) ainsi que de l’éducation au patient/famille quand le patient est admis en fin de semaine (OR : 1,62 IC 95%, 1,03 à 2,54). Discussion : L’évolution dans le suivi des recommandations montre que la qualité des soins infirmières aux personnes ayant subi un AVC s’améliore progressivement en Catalogne. Toutefois, une amélioration de certaines recommandations est possible. Ainsi, il s’avère nécessaire de renforcer et promouvoir des interventions plus ciblées et spécifiques.
Resumo:
Introduction : Bien que la pratique de l’usage de la warfarine se soit améliorée au cours de la dernière décennie, aucune recommandation claire basée sur le dosage de l’amiodarone n’a été jusqu’à maintenant standardisée, ce qui représente un grand obstacle pour les cliniciens. La warfarine a un index thérapeutique étroit nécessitant un suivi régulier et un ajustement individuel de la posologie, ceci afin de déterminer la dose thérapeutique, tout en prévenant les effets secondaires qui pourraient être fatals dans certains cas. La variabilité interindividuelle de la réponse à la warfarine dépend de plusieurs facteurs, dont l’âge, le sexe, le poids, l’alimentation et l’interaction médicamenteuse, mais ceux-ci n’expliquent que partiellement les différences de sensibilité à la warfarine. Les polymorphismes des gènes CYP2C9 et VKORC1 jouent un rôle important dans la réponse à la warfarine et expliquent jusqu’à 50% de la variabilité des doses. L’utilisation d’antiarythmiques telle l’amiodarone peut accentuer considérablement l’effet de la warfarine et nécessite généralement une diminution de 30 à 50% de la dose de la warfarine. Aucune étude à ce jour n’a tenté de déterminer l’utilité du génotypage des polymorphismes des gènes CYP2C9 et VKORC1 chez les patients sous traitement combiné de warfarine et amiodarone. Objectif : Notre étude a pour objectif tout d’abord de déterminer si des facteurs génétiques influencent la première dose de stabilisation de la warfarine chez les patients en FA après l’introduction de l’amiodarone. Nous allons également tenter de confirmer l’association préalablement rapportée entre les facteurs génétiques et la première dose de stabilisation de warfarine dans notre population à l’étude. Méthodes : Un devis de cohorte rétrospective de patients qui fréquentaient la clinique d'anticoagulothérapie de l’Institut de cardiologie de Montréal entre le 1er janvier 2007 et le 29 février 2008 pour l’ajustement de leur dose selon les mesures d'INR. Au total, 1615 patients ont été recrutés pour participer à cette étude de recherche. Les critères de sélection des patients étaient les patients avec fibrillation auriculaire ou flutter, ayant un ECG documenté avec l'un de ces deux diagnostics et âgé de moins de 67 ans, en raison d’une moindre comorbidité. Les patients souffrant d’insuffisance hépatique chronique ont été écartés de l’étude. Tous les patients devaient signer un consentement éclairé pour leur participation au projet et échantillon de sang a été pri pour les tests génétiques. La collecte des données a été effectuée à partir du dossier médical du patient de l’Institut de cardiologie de Montréal. Un formulaire de collecte de données a été conçu à cet effet et les données ont ensuite été saisies dans une base de données SQL programmée par un informaticien expert dans ce domaine. La validation des données a été effectuée en plusieurs étapes pour minimiser les erreurs. Les analyses statistiques utilisant des tests de régression ont été effectuées pour déterminer l’association des variants génétiques avec la première dose de warfarine. Résultats : Nous avons identifié une association entre les polymorphismes des gènes CYP2C9 et VKORC1 et la dose de la warfarine. Les polymorphismes génétiques expliquent jusqu’à 42% de la variabilité de dose de la warfarine. Nous avons également démontré que certains polymorphismes génétiques expliquent la réduction de la dose de warfarine lorsque l’amiodarone est ajoutée à la warfarine. Conclusion : Les travaux effectués dans le cadre de ce mémoire ont permis de démontrer l’implication des gènes CYP2C9 et VKORC1 dans la réponse au traitement avec la warfarine et l’amiodarone. Les résultats obtenus permettent d’établir un profil personnalisé pour réduire les risques de toxicité, en permettant un dosage plus précis de la warfarine pour assurer un meilleur suivi des patients. Dans le futur, d’autres polymorphismes génétiques dans ces gènes pourraient être évalués pour optimiser davantage la personnalisation du traitement.
Resumo:
Au Canada, Francisella tularensis, une bactérie zoonotique causant la tularémie, affecte principalement le lièvre d’Amérique, le rat musqué et le castor. Malgré les nombreuses études sur cette maladie, les connaissances sur l’écologie et les réservoirs naturels de la tularémie demeurent limitées. Une étude transversale a été réalisée afin d’estimer la prévalence d’infection par F. tularensis chez le lièvre d’Amérique, le rat musqué et le coyote dans quatre régions du Québec (Canada) et de décrire le risque d’infection d’après des caractéristiques individuelles (âge, sexe et état de chair) et environnementales. D’octobre 2012 à avril 2013, 345 lièvres d’Amérique, 411 rats musqués et 385 coyotes capturés par des trappeurs ont été échantillonnés. Les caractéristiques environnementales autour du site de capture ont été extraites de base de données géographiques. La séroprévalence (test de microagglutination) était de 2.9% chez les coyotes, 0.6% chez les lièvres et 0% chez les rats musqués. Tous les rats musqués et les lièvres étaient négatifs à une PCR en temps réel réalisée à partir d’un pool de foie, rein, rate et poumon; par contre, le type AI a été détecté dans les organes individuels des deux lièvres séropositifs. Des analyses de régression logistique exacte ont démontré que l’âge était un facteur de risque pour la séropositivité du coyote, ainsi que la proportion de forêts et la proportion de l’environnement considéré approprié pour le lièvre autour de la localisation de capture des coyotes. Les résultats de cette étude suggèrent la présence du cycle terrestre dans les régions étudiées.
Resumo:
Le travail d’équipe et la collaboration interprofessionnelle aux soins intensifs sont essentiels pour prodiguer des soins de qualité aux patients et pour leur sécurité. Cependant, les multiples interactions que nécessite une collaboration dans un contexte de soins aigus sont susceptibles de causer des tensions, des conflits et un travail inefficace dans l’équipe. Les déterminants de cette collaboration en soins intensifs ne sont pas encore bien identifiés. L'objectif de cette recherche est d'identifier et d'évaluer l’importance relative des déterminants susceptibles d’influencer la collaboration interprofessionnelle dans une équipe de soins intensifs. Un questionnaire évaluant ces déterminants a été élaboré et rempli par des professionnels de la santé travaillant dans quatre unités de soins intensifs d’un hôpital universitaire de Montréal. Un total de 312 professionnels, dont 46 médecins, 187 infirmières et 62 inhalothérapeutes, ont rempli le questionnaire. Des modèles d'analyses de régression multiple par hiérarchisation ont permis de déterminer que la « clarté du travail et des processus » , la « confiance et le respect » , mais tout particulièrement la « participation aux décisions » sont des déterminants statistiquement significatifs pour prédire la collaboration dans une équipe de soins intensifs. Une analyse de sous-groupe suggère des différences entre les médecins et les infirmières sur la perception de ces déterminants. Ces résultats apportent de nouveaux éléments dans la compréhension de la pratique de la collaboration et du travail d’équipe dans une équipe de soins intensifs, en précisant mieux ses déterminants. Sur le plan pratique, cela implique qu'il faille : i) favoriser un développement de la compétence de « collaboration » des professionnels travaillant dans le milieu des soins intensifs ; ii) cibler l’apprentissage auprès de ces professionnels en tenant compte des déterminants de la collaboration identifiés dans la présente étude.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
Résumé Introduction: Les infections urinaires (IU) sont les infections bactériennes les plus fréquentes chez les patients hospitalisés. Cette étude décrit les tendances temporelles d'admission et de mortalité liées aux hospitalisations pour les IU, ainsi que le fardeau économique associé. Les prédicteurs de mauvaise évolution clinique et de mortalité sont examinés par la suite. Méthodes: Les données ont été extraites à partir de la base de données du NIS entre le 1er janvier 1998 et le 31 décembre 2010. 1,717,181 hospitalisations liées aux IU ont été retenues. L'incidence et la mortalité ont été calculées et stratifiées selon le sexe, l'âge et la présence de sepsis. Les frais médians et totaux pour les hospitalisations sont calculés et ajustés pour l'inflation. Finalement, les prédicteurs d'avoir un sepsis induit par les IU et de mortalité sont examinés avec une analyse par régression logistique multivariée. Résultats: L'incidence globale d'hospitalisation et la mortalité associées aux IU voit une croissance annuel estimé (EAPC) de +4.764 et +4.610 respectivement (p<0.0001). L'augmentation d'incidence est le plus marquée pour les patients âgés de 55 à 64 ans (EAPC = +7.805; p<0.0001). Les frais médians par hospitalisation ont augmenté de $10 313 en 1998 à $21 049 en 2010 (EAPC +9.405; p<0.0001). Les frais globaux pour les hospitalisations des IU ont augmenté de $8.9 milliard en 1998 à $33.7 milliard en 2010 (EAPC +0.251; p<0.0001). Les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité (p<0.0001). Conclusion: L'incidence et la mortalité associées aux IU ont augmenté au cours de la dernière décennie. Les frais médians ajustés pour l'inflation ainsi que les frais globaux ont augmenté progressivement au cours de la période d'étude. Dans la cohorte étudiée, les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité. Ces données représentent des indicateurs de qualité de soins qui pourraient permettre d'adapter certaines politiques de soins de santé aux besoins des sous-populations plus vulnérables.
Resumo:
Problématique : L’édentement et les troubles du sommeil sont des affections chroniques fréquentes chez les personnes âgées et qui peuvent avoir des conséquences défavorables sur le bien-être de ces personnes, ainsi que sur leur qualité de vie. L’édentement pourrait perturber le sommeil par la modification de la structure crânio-faciale et des tissus mous environnants. Cependant, cette relation n'est pas suffisamment documenté. Objectifs : Le but de cette étude pilote était de préparer la mise en œuvre d’une étude clinique randomisée contrôlée concernant l’effet du port nocturne des prothèses complètes sur la qualité du sommeil. Méthodologie : Treize aînés édentés ont participé à cette étude clinique randomisée contrôlée de type croisé. L’intervention consistait à dormir avec ou sans les prothèses durant la nuit. Les participants à l'étude ont été assignés à porter et ne pas porter leurs prothèses dans des ordres alternatifs pour des périodes de 30 jours. La qualité du sommeil a été évaluée par la polysomnographie portable et le questionnaire Pittburgh Sleep Quality Index (PSQI). Les données supplémentaires incluent la somnolence diurne, évaluée par le questionnaire Epworth Sleepiness Scale (ESS), et la qualité de vie liée à la santé buccodentaire, évaluée par le questionnaire Oral Health Impact Profile 20 (OHIP-20). De plus, à travers les examens cliniques et radiologiques, les données des caractéristiques sociodémographiques, de la morphologie oropharyngée, des caractéristiques buccodentaires et des prothèses ont été recueillies. Les modèles de régression linéaire pour les mesures répétées ont été utilisés pour analyser les résultats. Résultats : L’étude de faisabilité a atteint un taux de recrutement à l’étude de 59,1% et un taux de suivi de 100%. Le port nocturne des prothèses dentaires augmentait l’index d'apnée-hypopnée (IAH) et le score PSQI par rapport au non port nocturne des prothèses : (IAH : Médiane = 20,9 (1,3 - 84,7) versus 11,2 (1,9 - 69,6), p = 0,237; le score PSQI : Médiane = 6,0 (3,0 - 11,0) versus 5,0 (1,0 - 11,0), p = 0,248). Cependant, ces différences n'étaient pas statistiquement significatives, sauf que pour le temps moyen d’apnée (plus long avec des prothèses) (p < 0,005) et le temps de ronflement relatif (moins élevé avec des prothèses) (p < 0,05). La somnolence diurne excessive et la qualité de vie liée à la santé buccodentaire étaient semblables pour les deux interventions (le score ESS : Médiane = 4,0 (3,0-10,0) versus 5,0 (2,0-10,0), p = 0,746; le score OHIP-20: Médiane = 31,0 (20,0-64,0) versus 27,0 (20,0-49,0), p = 0,670). L’impact néfaste du port nocturne des prothèses complètes sur le sommeil a été statistiquement significatif chez les personnes souffrant de l’apnée-hypopnée moyenne à sévère (p < 0,005). Conclusion : L’essai clinique pilote a montré que le port nocturne des prothèses complètes a un impact négatif sur la qualité du sommeil des gens âgés édentés, surtout chez les personnes avec l’apnée obstructive du sommeil modérée à sévère. Les résultats doivent être confirmés par l’étude clinique randomisée contrôlée de phase II.
Resumo:
La pression artérielle est un déterminant potentiellement majeur de l’évolution de pathologies telles que la FA et l’insuffisance cardiaque. Pourtant, il demeure plusieurs incertitudes quant à la prise en charge optimale de la pression artérielle chez ces patients. Le rôle potentiel de la pression artérielle sur l’efficacité du maintien en rythme sinusal est inconnu. De plus, en présence d’insuffisance cardiaque, non seulement une pression artérielle élevée, mais aussi une pression artérielle basse pourrait augmenter la mortalité. Les travaux présentés ont pour but d’évaluer l’impact de la pression artérielle sur l’efficacité du contrôle du rythme et la mortalité ainsi que d’évaluer le rôle potentiel de l’insuffisance cardiaque sur cette interaction. Une étude post-hoc utilisant une banque de données combinant les études AFFIRM et AF-CHF a été réalisée. Les patients ont d’abord été classés selon leur FEVG (>40%, ≤40%), puis nous avons évalué l’impact de la PAS (<120 mmHg, 120-140 mmHg, >140 mmHg) sur les issues. Premièrement, chez les 2715 patients randomisés au contrôle du rythme, nous avons évalué la survie sans récidive de FA. Deuxièmement, chez tous les 5436 patients inclus dans les 2 études sources, nous avons évalué la mortalité et la morbidité. Chez les patients avec FEVG >40%, aucune des issues n’a été affectée par la PAS dans des analyses de régression multivariées de Cox. Par contraste, chez les patients avec FEVG ≤40%, le taux de récidive de FA était plus élevé avec une PAS >140 mmHg et une PAS <120 mmHg, par rapport à une PAS de 120-140 mmHg [HR, 1.47; IC 95% (1.12-1.93)] et [HR 1.15; IC 95% (0.92-1.43)], respectivement. La mortalité s’est également avérée augmentée chez ces patients avec une PAS >140 mmHg et une PAS <120 mmHg [HR 1.75; IC 95% (1.41-2.17)] et [HR 1.40; IC 95% (1.04-1.90)], respectivement. En conclusion, le maintien en rythme sinusal et la survie sont influencés par la PAS chez les patients avec FA et FEVG diminuée, mais non chez les patients avec FEVG normale. Une courbe en forme de U a été identifiée, où les pression plus basses (<120 mmHg) et plus hautes (>140 mmHg) sont associées à un moins bon pronostic.
Resumo:
La diversification des résultats de recherche (DRR) vise à sélectionner divers documents à partir des résultats de recherche afin de couvrir autant d’intentions que possible. Dans les approches existantes, on suppose que les résultats initiaux sont suffisamment diversifiés et couvrent bien les aspects de la requête. Or, on observe souvent que les résultats initiaux n’arrivent pas à couvrir certains aspects. Dans cette thèse, nous proposons une nouvelle approche de DRR qui consiste à diversifier l’expansion de requête (DER) afin d’avoir une meilleure couverture des aspects. Les termes d’expansion sont sélectionnés à partir d’une ou de plusieurs ressource(s) suivant le principe de pertinence marginale maximale. Dans notre première contribution, nous proposons une méthode pour DER au niveau des termes où la similarité entre les termes est mesurée superficiellement à l’aide des ressources. Quand plusieurs ressources sont utilisées pour DER, elles ont été uniformément combinées dans la littérature, ce qui permet d’ignorer la contribution individuelle de chaque ressource par rapport à la requête. Dans la seconde contribution de cette thèse, nous proposons une nouvelle méthode de pondération de ressources selon la requête. Notre méthode utilise un ensemble de caractéristiques qui sont intégrées à un modèle de régression linéaire, et génère à partir de chaque ressource un nombre de termes d’expansion proportionnellement au poids de cette ressource. Les méthodes proposées pour DER se concentrent sur l’élimination de la redondance entre les termes d’expansion sans se soucier si les termes sélectionnés couvrent effectivement les différents aspects de la requête. Pour pallier à cet inconvénient, nous introduisons dans la troisième contribution de cette thèse une nouvelle méthode pour DER au niveau des aspects. Notre méthode est entraînée de façon supervisée selon le principe que les termes reliés doivent correspondre au même aspect. Cette méthode permet de sélectionner des termes d’expansion à un niveau sémantique latent afin de couvrir autant que possible différents aspects de la requête. De plus, cette méthode autorise l’intégration de plusieurs ressources afin de suggérer des termes d’expansion, et supporte l’intégration de plusieurs contraintes telles que la contrainte de dispersion. Nous évaluons nos méthodes à l’aide des données de ClueWeb09B et de trois collections de requêtes de TRECWeb track et montrons l’utilité de nos approches par rapport aux méthodes existantes.