986 resultados para Méthodes épidémiologiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les soins dentaires des enfants autistes représentent un défi pour les parents et les dentistes. Des efforts doivent être faits afin d’améliorer les mesures préventives et l’éducation des parents. Recension des écrits : L’autisme se définit comme un désordre qualitatif de l’interaction sociale et de la communication, par des comportements ou activités répétitifs et stéréotypés et par de l’hypersensibilité aux stimuli corporels. Le manque de coopération pour le brossage des dents constitue un obstacle au maintien d’une bonne hygiène bucco-dentaire chez l’enfant autiste. Problématique : L’enfant autiste représente un défi pour le dentiste, mais aussi pour ses parents lors des mesures quotidiennes d’hygiène. Peu d’études cliniques se sont penchées sur l’utilité des pictogrammes dans la dispensation des soins dentaires quotidiens et professionnels de cette clientèle. Hypothèse de recherche : L’utilisation de pictogrammes améliore la coopération des enfants autistes pour les soins dentaires quotidiens et chez le dentiste, leur procurant une meilleure hygiène bucco-dentaire. Matériels et méthodes : Selon un devis d’étude expérimentale randomisée, 17 participants expérimentaux (avec pictogrammes) et 18 participants contrôles ont été recrutés au CHU Sainte-Justine, puis évalués à 6 reprises sur 12 mois. L’hygiène fut notée par l’indice de plaque et le comportement par l’échelle de Frankl. Résultats : Aucune différence significative n’a été notée entre le groupe expérimental et contrôle pour l’indice de plaque et l’échelle de Frankl. Globalement, une baisse de l’indice de plaque et une amélioration du comportement ont été notées pour les deux groupes et ce, pendant la période d’étude de 12 mois. Conclusion : Les résultats de la présente étude ne permettent pas d’affirmer que les pictogrammes contribuent à améliorer l’hygiène bucco-dentaire et le comportement des enfants autistes lors des soins dentaires quotidiens et professionnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Les données provenant des centres de soins tertiaires suggèrent que le taux de mortalité péri-opératoire (MPO) après cystectomie notés pour les patients âgés (septuagénaires et octogénaires) n’excède pas celle des patients plus jeunes. Toutefois, les données provenant de la communauté démontrent un phénomène inverse. Spécifiquement, la MPO est plus élevés chez les ainés. Dans cette thèse nous allons présenter une réévaluation contemporaine du taux de MPO après cystectomie. Méthodes: Entre 1988 et 2006, 12722 cystectomies radicales pour le carcinome urothéliale de la vessie ont été enregistrées dans la banque de données SEER. Le taux de MPO a été évalué dans les analyses de régression logistique univariées et multivariées à 90 jours après cystectomie radicale. Les covariables incluaient: le sexe, l’ethnie, l’année de chirurgie, la région d’origine du patient ainsi que le grade et le stade de la tumeur. Résultats: Parmi tous les patients, 4480 étaient des septuagénaires (35.2%) et 1439 étaient des octogénaires (11.3%). Le taux de MPO à 90 jours était de 4% pour la cohorte entière vs. 2% pour les patients moins de 69 ans vs. 5.4% pour les septuagénaires vs. 9.2% pour les octogénaires. Dans les analyses de régression logistiques multivariées, les septuagénaires (OR=2.80; <0.001) et les octogénaires (OR=5.02; <0.001) avaient reçu un taux de MPO plus augmenté que les patients moins de 70 ans après une cystectomie radicale. Conclusion: Cette analyse épidémiologique basée sur les donnés le plus contemporaines démontre que l’âge avancée représente un facteur de risque pour un taux de MPO plus élevé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a plus de cinquante ans, la pactamycine a été isolée en tant qu’agent antitumoral potentiel. Il a été réalisé plus tard qu’il s’agissait en fait d’un agent antibactérien capable d’inhiber la synthèse de protéines lors du procédé de traduction. Récemment, il a même été démontré que certains de ses analogues possèdent des propriétés antiprotozoaires prometteuses. La présente thèse détaille la première synthèse totale de la pactamycine, entreprise au sein du groupe Hanessian, ainsi que la préparation d’une sélection d’analogues testés pour leurs propriétés biologiques. En outre, la daphniglaucine C appartient à une vaste famille de composés naturels isolés des feuilles du daphniphyllum au cours des dix dernières années. Bien que relativement peu d’information soit connue par rapport à l’activité biologique de la daphniglaucine C, la synthèse de celle-ci représente certainement un défi intéressant pour un chimiste organicien. Au passage, nos efforts vers la synthèse totale du composé cible auront permis d’explorer l’emploi de plusieurs méthodes en vue de la formation de centres quaternaires. De plus, un réarrangement réductif atypique, catalysé au palladium à partir d’alcools allyliques non-activés, a été étudié et employé afin de générer une sélection de pyrrolidines polysubstituées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le caryotype moléculaire permet d’identifier un CNV chez 10-14% des individus atteints de déficience intellectuelle et/ou de malformations congénitales. C’est pourquoi il s’agit maintenant de l’analyse de première intention chez ces patients. Toutefois, le rendement diagnostique n’est pas aussi bien défini en contexte prénatal et l’identification de CNVs de signification clinique incertaine y est particulièrement problématique à cause du risque d’interruption de grossesse. Nous avons donc testé 49 fœtus avec malformations majeures et un caryotype conventionnel normal avec une micropuce CGH pangénomique, et obtenu un diagnostic dans 8,2% des cas. Par ailleurs, des micropuces à très haute résolution combinant le caryotype moléculaire et le génotypage de SNPs ont récemment été introduites sur le marché. En plus d’identifier les CNVs, ces plateformes détectent les LOHs, qui peuvent indiquer la présence d’une mutation homozygote ou de disomie uniparentale. Ces anomalies pouvant être associées à la déficience intellectuelle ou à des malformations, leur détection est particulièrement intéressante pour les patients dont le phénotype reste inexpliqué. Cependant, le rendement diagnostique de ces plateformes n’est pas confirmé, et l’utilité clinique réelle des LOHs n’est toujours pas établie. Nous avons donc testé 21 enfants atteints de déficience intellectuelle pour qui les méthodes standards d’analyse génétique n’avaient pas résulté en un diagnostic, et avons pu faire passer le rendement diagnostique de 14,3% à 28,6% grâce à l’information fournie par les LOHs. Cette étude démontre l’utilité clinique d’une micropuce CGH pangénomique chez des fœtus avec malformations, de même que celle d’une micropuce SNP chez des enfants avec déficience intellectuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La culture de saules (Salix sp.) est une pratique courante en Europe et en Amérique du Nord pour produire de la biomasse végétale. Cependant, le développement d’outils moléculaires est très récent. De plus, la phylogénie des saules est incomplète. Il y a un manque d’information pour les programmes de sélection d'espèces indigènes et pour la compréhension de l’évolution du genre. Le genre Salix inclut 500 espèces réparties principalement dans les régions tempérées et boréo-arctique de l’hémisphère nord. Nous avons obtenu l’ensemble des espèces retrouvées naturellement en Amérique (121 indigènes et introduites). Dans un premier temps, nous avons développé de nouveaux outils moléculaires et méthodes : extraction d’ADN, marqueurs microsatellites et gènes nucléaires. Puis, nous avons séquencé deux gènes chloroplastiques (matK et rbcL) et la région ITS. Les analyses phylogénétiques ont été réalisées selon trois approches : parcimonie, maximum de vraisemblance et Bayésienne. L’arbre d’espèces obtenu a un fort support et divise le genre Salix en deux sous-genres, Salix et Vetrix. Seize espèces ont une position ambiguë. La diversité génétique du sous-genre Vetrix est plus faible. Une phylogénie moléculaire complète a été établie pour les espèces américaines. D’autres analyses et marqueurs sont nécessaires pour déterminer les relations phylogénétiques entre certaines espèces. Nous affirmons que le genre Salix est divisé en deux clades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration présenté à Isabelle Gagnon dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte de grandes transformations économiques imposées par la mondialisation, le développement d’innovations et la financiarisation de l’économie ont profondément atteint les villes mono industrielles de la période fordiste. L’industrie automobile, grandement influencée par les restructurations économiques globales, a elle aussi été profondément touchée. Ce faisant, les paysages urbains des villes dépendantes de cette industrie, comme Windsor en Ontario, ont été construits et détruits par le processus de destruction créative, dont nous soulignons la composante spatiale. La structure paysagère de Windsor s’est ainsi transformée : alors que des aires importantes dans différents quartiers attendent d’être réinvesties, donnant lieu aux paysages abandonnés, d’autres paysages sont créés. Cette recherche est basée sur l’étude de trois quartiers bordant la Rivière Détroit ayant subi d’importants changements dans leurs paysages. L’objectif principal de ce mémoire est donc de déterminer comment le processus de destruction créative s’opère à Windsor et quels en sont les impacts spatiaux. Afin de parvenir à cet objectif, des observations du paysage avec la création du répertoire photographique, accompagnées d’entrevues directes, ont été les méthodes privilégiées La recherche a permis de déterminer que le processus de destruction créative a lieu dans des contextes de déclin, mais également de croissance. Avec les restructurations économiques globales de l’industrie automobile, les paysages de Windsor se sont créés, déstructurés, et parfois restructurés, grâce aux interventions des acteurs locaux. Face à l’abandon progressif de certains espaces, ces acteurs ont dû réfléchir à de nouvelles stratégies en réponse aux transformations paysagères, comme le néolibéralisme urbain. Nous avons ainsi pu conclure que la destruction créative des paysages est donc en relation avec les processus économiques globaux et négociée par les acteurs locaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CONTEXTE : La mortalité infantile a diminué au Canada depuis les années 1990 et 2000 mais nous ignorons si toutes les classes socioéconomiques ont bénéficié également de ce progrès. OBJECTIFS : La présente étude portait sur les différences entre les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson entre les différents quintiles de revenu des quartiers au Canada de 1991 à 2005. MÉTHODES : Le fichier couplé des naissances vivantes et des décès infantiles au Canada a été utilisé à l’exclusion des naissances survenues en Ontario, au Yukon, dans les Territoires du Nord-ouest et au Nunavut. Les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson ont été calculé par quintile de revenu des quartiers et par période (1991-1995, 1996-2000, 2001-2005). Les rapports de risque (RR) ont été calculés par quintile de revenu et période avec ajustement pour la province de résidence, l’âge de la mère, la parité, le sexe du nourrisson et les naissances multiples. RÉSULTATS : En zone urbaine, pour toute la période étudiée (1991- 2005), le quintile de revenu le plus pauvre avait un risque plus élevé de mortalité néonatale (RR ajusté 1,24; IC 95% 1,15-1,34), de mortalité postnéonatale (RR ajusté 1,58; IC 95% 1,41-1,76) et de mort subite du nourrisson (RR ajusté 1,83; IC 95% 1,49-2,26) par rapport au quintile le plus riche. Les taux de mortalité post néonatale et de mort subite du nourrisson ont décliné respectivement de 37 % et de 57 % de 1991- 1995 à 2001-2005 alors que le taux de mortalité néonatale n’a pas changé de façon significative. Cette diminution de la mortalité postnéonatale et de la mort subite du nourrisson a été observée dans tous les quintiles de revenu. CONCLUSION : Malgré une diminution de la mortalité postnéonatale et du syndrome de mort subite du nourrisson dans tous les quintiles de revenu, les inégalités subsistent au Canada. Ce résultat démontre le besoin de stratégies efficaces de promotion de la santé visant spécifiquement les populations vulnérables. MOTS CLÉS : mort subite du nourrisson; mortalité infantile; statut socioéconomique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Pour les patients atteints d’une polyarthrite rhumatoïde débutante (PARD), l’utilisation de médicaments antirhumatismaux à longue durée d’action améliore les résultats pour les patients de manière significative. Les patients traités par un rhumatologue ont une plus grande probabilité de recevoir des traitements et donc d’avoir de meilleurs résultats de santé. Toutefois, les délais observés entre le début des symptômes et une première visite avec un rhumatologue sont souvent supérieurs à la recommandation de trois mois énoncée par les guides de pratiques. Au Québec, le temps d’attente pour voir un rhumatologue à la suite d’une demande de consultation est généralement long et contribue aux délais totaux. Objectifs : Nous avons évalué la capacité d’un programme d’accès rapide avec un triage effectué par une infirmière à correctement identifier les patients avec PARD et à réduire leur temps d’attente, dans le but d’améliorer le processus de soin. Méthodes : Une infirmière a évalué tous les nouveaux patients référés en 2009 et 2010 dans une clinique de rhumatologie située en banlieue de Montréal. Un niveau de priorité leur a été attribué sur la base du contenu de la demande de consultation, de l’information obtenue à la suite d’une entrevue téléphonique avec le patient et, si requis, d’un examen partiel des articulations. Les patients avec PARD, avec une arthrite inflammatoire non différentiée, ou atteints d’une autre pathologie rhumatologique aiguë étaient priorisés et obtenaient un rendez-vous le plus rapidement possible. Les principales mesures de résultat étudiées étaient la validité (sensibilité et spécificité) du triage pour les patients atteints de PARD ainsi que les délais entre la demande de consultation et la première visite avec un rhumatologue. Résultats : Parmi les 701 patients nouvellement référés, 65 ont eu un diagnostic final de PARD. Le triage a correctement identifié 85,9% de ces patients et a correctement identifié 87,2% des patients avec l’une des pathologies prioritaires. Le délai médian entre la demande de consultation et la première visite était de 22 jours pour les patients atteints de PARD et de 115 pour tous les autres. Discussion et conclusion : Ce programme d’accès rapide avec triage effectué par une infirmière a correctement identifié la plupart des patients atteints de PARD, lesquels ont pu être vus rapidement en consultation par le rhumatologue. Considérant qu’il s’agit d’un programme qui requiert beaucoup d’investissement de temps et de personnel, des enjeux de faisabilités doivent être résolus avant de pouvoir implanter un tel type de programme dans un système de soins de santé ayant des ressources très limitées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.