182 resultados para Mélange de distributions khi-deux non centrées


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré l’abondance d’information concernant la dentisterie esthétique, les évidences scientifiques à son sujet sont rarissimes. Ainsi, cette recherche a pour premier but d’accroître ces évidences en faisant la lumière sur les paramètres esthétiques et leur influence auprès de l’appréciation générale du sourire, tel que perçu par des sujets non-experts. Une invitation à répondre à un questionnaire autoadministré anonyme a été envoyée à la communauté de l’Université de Montréal par courrier électronique. 467 personnes ont accepté de répondre au questionnaire, toutefois seulement 263 ont terminé l'opération. L’analyse des données démontre que le seul critère esthétique objectif ayant une influence statistiquement significative sur l’appréciation générale est « l’arrangement des dents » (p = .028). Les dents versées diminuent significativement l’attrait général par rapport à des dents droites (p = .012) ou chevauchées (p = .009). Par contre, en corrélant ces données avec les convictions des sujets, « l’angulation de la médiane dentaire supérieure » ainsi que « l’inclinaison du plan incisif » présentent aussi des différences statistiquement significatives. « L’état d’usure des dents » et leur « position » sont les éléments, parmi le vocabulaire suggéré, les plus importants pour l’attrait du sourire aux yeux des patients. Avec les limitations de cette étude, on peut conclure que (1) « l’arrangement des dents », « l’angulation de la médiane dentaire supérieure » et « l’inclinaison du plan incisif » influencent de manière statistiquement significative l’appréciation générale du sourire. (2) Parmi les critères objectifs étudiés, « l'arrangement des dents » a la plus forte influence sur l’appréciation générale d’un sourire. (3) Une corrélation statistiquement significative entre les deux séquences d’évaluation et la faible variance intrasujet indiquent que l’appréciation générale d’un sourire est une action réflexe basée, entre autres, sur des paramètres morphologiques. Application pratique : Les résultats de cette étude insinuent que les traitements visant à corriger l’alignement, l’usure des dents et ceux visant à blanchir les dents d’un individu sont susceptibles d’augmenter l’attrait de son sourire tel que perçu par des sujets non-experts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le virus du syndrome reproducteur et respiratoire porcin (SRRP) est actuellement l’une des principales menaces pour la santé des troupeaux porcins. Les multiples voies de transmission complexifient l’épidémiologie de l’infection et en font une maladie particulièrement difficile à contrôler. L’objectif général de ce projet de recherche était de déterminer les facteurs associés au statut SRRP des sites de production afin de mieux comprendre l’épidémiologie de cette maladie au sein de deux régions du Québec ayant des densités porcines différentes. Les stratégies d’introduction des cochettes de remplacement ont d’abord été examinées. Des lacunes importantes ont été identifiées représentant un risque potentiel pour l’introduction du virus ou pour la recirculation d’une souche endémique au sein d’un troupeau reproducteur. Ainsi, appliquée à titre de stratégie de contrôle, l’acclimatation s’est révélée particulièrement problématique. Les principes de base étaient peu respectés, pouvant donc avoir un impact négatif considérable sur la circulation virale au sein du troupeau et potentiellement sur le voisinage immédiat. La fréquence de plusieurs mesures de biosécurité externe a ensuite été évaluée, permettant d’identifier certains problèmes dont ceux touchant principalement les mesures d’hygiène relatives au protocole d’entrée. Des différences de fréquence entre les régions et les types de production ont également été notées, ce qui peut orienter les interventions de rehaussement. Une classification multivariée a permis de grouper les sites en différents patrons de biosécurité pour constituer par le fait même un index de biosécurité. Cette étape a permis d’évaluer l’association entre certaines caractéristiques de l’élevage et le niveau de biosécurité indiqué par l’index. La distribution géographique des patrons au sein des deux régions, couplée à la détection d’agrégats spatiaux de sites ayant un patron similaire, a également permis de cibler davantage les interventions en fonction de la localisation des sites. Suite à l’investigation du statut SRRP des sites, une prévalence apparente très élevée a été obtenue pour les deux régions, complexifiant le contrôle de la maladie. L’étude de facteurs de risque dans la région de densité modérée a mis en évidence quatre facteurs associés au statut SRRP positif des sites, soit un inventaire important, la proximité du site porcin immédiat, l’absence de douche ainsi que le libre accès au site par l’équarrisseur. Une action préventive intégrant des mesures de biosécurité spécifiques peut donc être entreprise directement à la ferme au regard des deux derniers facteurs. Le fait d’utiliser un index de biosécurité plutôt que des mesures de biosécurité spécifiques a également été évalué. Les résultats ne supportent pas l’index global dans l’évaluation de l’association entre la biosécurité et le statut SRRP des sites de production. Finalement, la corrélation entre les distances génétique, euclidienne et temporelle des souches de SRRP, considérant également l’appartenance au même ou à des propriétaires différents, a été évaluée au sein de la région de haute densité. Une corrélation positive entre la distance génétique et euclidienne observée jusqu’à 5 km a souligné l’importance de la propagation régionale impliquant les aérosols, les insectes, d’autres espèces animales ou les objets inanimés. De plus, les souches génétiquement similaires appartenaient davantage à des sites ayant le même propriétaire, ce qui sous-tend des mécanismes de transmission impliquant une source commune d’animaux, d’employés, d’équipement, voire de véhicules.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre recherche vise à vérifier s'il existe un lien entre l'intérêt des Américains pour les investissements étrangers et le maintien des structures opaques de la finance internationale. Les pratiques d'opacité financière (utilisation abusive du secret bancaire, faibles mesures d'identification du client, faible règlementation bancaire, absence d’échange d’information fiscale, absence d’obligations d’enregistrements de compagnies et de fiducies, possibilité d’établir la propriété d’une société avec des prête-noms, utilisation de bons au porteur, manque d’encadrement des fiducies, etc.) semblent accommoder les États qui les dénoncent. Utilisant les théories des jeux à deux niveaux de Putnam, de la règlementation et de l’équilibre de Nash, nous faisons le lien entre le niveau national et international. Notre recherche consiste en deux études de cas. La première traite d’un projet de règlement de l’Internal Revenue Service visant à assurer la déclaration de revenus d’intérêt sur les dépôts bancaires des non-résidents. La seconde traite d’une série de projets de loi déposés au Sénat et à la Chambre des représentants des États-Unis. Ils cherchent à assurer la transparence du processus d’enregistrement de compagnies de manière à faciliter l’accès des agences d’application de la loi à l’information sur les bénéficiaires effectifs des compagnies formées en sol américain. Notre recherche ne permet pas de confirmer notre hypothèse avec certitude. Cependant, nos données tendent à indiquer que les groupes d’intellectuels et les groupes de pression financiers incitent le gouvernement des États-Unis à freiner la mise en application de certaines mesures prévues par le régime antiblanchiment (particulièrement l’identification du client et le partage d’information avec des pays tiers) pour attirer l’investissement étranger.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La voie de la polarité planaire cellulaire (PCP), aussi connue sous le nom de la voie non-canonique du Frizzled/Dishevelled, contrôle le processus morphogénétique de l'extension convergente (CE) qui est essentiel pour la gastrulation et la formation du tube neural pendant l'embryogenèse. La signalisation du PCP a été récemment associée avec des anomalies du tube neural (ATN) dans des modèles animaux et chez l'humain. Prickle1 est une protéine centrale de la voie PCP, exprimée dans la ligne primitive et le mésoderme pendant l'embryogenèse de la souris. La perte ou le gain de fonction de Prickle1 mène à des mouvements de CE fautifs chez le poisson zèbre et la grenouille. PRICKLE1 interagit directement avec deux autres membres de la voie PCP, Dishevelled et Strabismus/Vang. Dans notre étude, nous avons investigué le rôle de PRICKLE1 dans l'étiologie des ATN dans une cohorte de 810 patients par le re-séquençage de son cadre de lecture et des jonctions exon-intron. Le potentiel pathogénique des mutations ainsi identifiées a été évalué par des méthodes bioinformatiques, suivi par une validation fonctionnelle in vivo dans un système poisson zèbre. Nous avons identifié dans notre cohorte un total de 9 nouvelles mutations dont sept: p.Ile69Thr, p.Asn81His, p.Thr275Met, p.Arg682Cys et p.Ser739Phe, p.Val550Met et p.Asp771Asn qui affectent des acides aminés conservés. Ces mutations ont été prédites in silico d’affecter la fonction de la protéine et sont absentes dans une large cohorte de contrôles de même origine ethnique. La co-injection de ces variantes avec le gène prickle1a de type sauvage chez l’embryon de poisson zèbre a démontré qu’une mutation, p.Arg682Cys, modifie dans un sens négatif le phénotype du défaut de la CE produit par pk1 de type sauvage. Notre étude démontre que PK1 peut agir comme facteur prédisposant pour les ATN chez l’humain et élargit encore plus nos connaissances sur le rôle des gènes de la PCP dans la pathogenèse de ces malformations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’asymétrie de mise en charge (MEC) lors du passage assis à debout (PAD) chez les personnes hémiparétiques est une observation clinique connue mais peu expliquée. Ce projet visait donc le développement de connaissances sur les facteurs explicatifs de l’asymétrie de MEC chez cette clientèle en s’intéressant plus spécifiquement au lien entre la distribution des efforts aux genoux lors du PAD et l’asymétrie de MEC observée ainsi qu’à la perception de ces deux éléments lors de cette tâche. Ainsi, les objectifs généraux étaient de : 1) déterminer si l’exécution spontanée asymétrique du PAD des sujets hémiparétiques est expliquée par une distribution des efforts symétriques aux genoux en quantifiant ces efforts par le Taux d’utilisation musculaire électromyographique (TUMEMG) et, 2) déterminer si les individus hémiparétiques sont conscients des stratégies motrices qu’ils utilisent en évaluant leurs perceptions de MEC et d’efforts aux genoux durant le PAD. La première étude a évalué la capacité des personnes hémiparétiques à percevoir leur distribution de MEC aux membres inférieurs lors du PAD. Par rapport aux participants sains, leur distribution de MEC fut davantage asymétrique et leurs erreurs de perception plus élevées. La deuxième étude a quantifié la distribution des efforts aux genoux chez les sujets sains et hémiparétiques lors du PAD spontané. Les deux groupes ont montré une association entre leur distribution de MEC et leur distribution d’effort. Toutefois, la relation était plus faible chez les patients. Le classement des participants hémiparétiques en sous-groupes selon leur degré d’asymétrie de force maximale des extenseurs des genoux (faible, modéré, sévère) a révélé une similarité des efforts aux genoux parétique et non parétique chez le groupe ayant une atteinte sévère. La troisième étude a déterminé si la perception de la distribution des efforts aux genoux des sujets hémiparétiques était reliée à leur distribution réelle d’effort mesurée lors de PAD exécutés dans différentes positions de pieds. En plus d’être incapables de percevoir les changements de distribution d’effort induits par les différentes positions de pieds, leurs erreurs de perception d’effort furent plus élevées que celles de MEC. Par le biais du test fonctionnel assis-debout de cinq répétitions, la dernière étude a déterminé l’influence du nombre de répétitions du PAD sur les distributions de MEC et d’efforts aux genoux chez les sujets sains et hémiparétiques. Contrairement aux contrôles, les distributions des sujets hémiparétiques furent plus asymétriques à la première répétition du test fonctionnel que lors de l’exécution spontanée unique du PAD. En somme, les résultats de cette thèse ont démontré que la distribution des efforts aux genoux doit être considérée parmi les facteurs explicatifs de l’asymétrie de MEC des individus hémiparétiques lors du PAD et qu’il y a un besoin de mieux documenter la perception des personnes hémiparétiques lorsqu’elles exécutent des tâches fonctionnelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des facteurs masculins sont identifiés dans près de la moitié des cas d’infertilité. À ce jour, les tests évaluant la fertilité masculine demeurent peu prédictifs de la survenue d’une grossesse. Dans le but de pallier cette lacune, nous avons mis au point deux nouveaux tests mesurant l’intégrité de l’ADN et le temps de survie des spermatozoïdes. Nous avons effectué une étude prospective portant sur 42 couples infertiles suivis en fécondation in vitro (FIV). Le spermogramme a été effectué selon les critères de l’Organisation Mondiale de la Santé (OMS) et le temps de survie des spermatozoïdes exposés à un détergent cationique a été mesuré en observant la mobilité sous microscope. L’intégrité de l’ADN des spermatozoïdes a été vérifiée par la nouvelle méthode de marquage radioenzymatique et par analyse de la structure de la chromatine (SCSA). Tous les tests ont été réalisés sur la partie des échantillons de sperme non utilisée par la clinique de fertilité. Le projet a été approuvé par le comité d’éthique du Centre Hospitalier Universitaire de Montréal (CHUM) et les patients ont préalablement signé un formulaire de consentement éclairé. L’analyse des paramètres du spermogramme et de l’intégrité de l’ADN n’a montré aucune différence statistiquement significative entre les données chez les couples avec ou sans grossesse. Cependant, le taux de grossesse biochimique était statistiquement plus élevé chez les couples dont le temps de survie des spermatozoïdes était long (>250 s) comparativement à ceux dont ce temps était court (≤250 s): 66% vs 27% respectivement (p<0,05). Les taux de grossesse clinique et d’implantation étaient aussi plus élevés, mais les différences n’atteignaient pas le seuil de signification statistique. Nos résultats confirment que le spermogramme et la mesure de la fragmentation de l’ADN des spermatozoïdes ne sont pas de bons facteurs prédictifs des résultats de la FIV. Par contre, le test de survie des spermatozoïdes serait un meilleur indicateur de la possibilité d’une grossesse en FIV. L’amélioration de sa spécificité et un plus grand nombre de sujets sont nécessaires avant de proposer son application en clinique de fertilité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : La douleur chronique non cancéreuse (DCNC) est prévalente, notamment en première ligne où l’on traite la plupart des maladies chroniques. Cette étude de cohorte vise à décrire l’usage des analgésiques, la prévalence et le traitement des effets secondaires des analgésiques utilisés, la satisfaction ainsi que les croyances et attitudes face à la douleur et son traitement chez des patients souffrant de DCNC et suivis en première ligne. Méthodologie : Des patients souffrant de DCNC (douleur qui dure depuis six mois et plus), ressentie au minimum deux fois par semaine avec une intensité d’au moins 4 sur une échelle de 0 à 10 (10 = la pire douleur possible) et qui possèdent une ordonnance active d’un médecin de famille pour un médicament contre la douleur, ont été recrutés à travers le Québec. Ils ont complété une entrevue téléphonique et un questionnaire auto-administré afin de documenter les caractéristiques de leur douleur, son impact psychosocial et émotionnel ainsi que leur satisfaction et croyances face à la douleur et son traitement. L’information concernant la pharmacothérapie reçue a été collectée en utilisant les banques de données administratives de la Régie d’assurance maladie du Québec et les dossierspatients des pharmacies communautaires. Résultats : Les 486 patients qui ont participé à l’étude avaient une moyenne d’âge de 58,4 ans. Ils ont rapporté une douleur qui dure en moyenne depuis 11,7 ans évaluée à 6,5 sur une échelle de 0 à 10. Sur la période d’une année, 52,9% des patients ont reçu des analgésiques prescrits par deux ou trois médecins de famille. Les analgésiques les plus dispensés étaient les anti-inflammatoires non stéroïdiens (72,2%) et les opioïdes (65,6%). Bien que 90% des patients ont rapporté des effets gastro-intestinaux, les proportions de ceux n’ayant pas reçu de médicaments pour soulager la constipation ou les nausées et/ou vomissements étaient respectivement 36,4% et 54,4%. Le niveau de satisfaction était faible, notamment face à l’information reçue concernant la douleur et son traitement. La peur des effets néfastes des analgésiques constitue la barrière face à l’optimisation de la pharmacothérapie de la douleur la plus souvent rapportée par les patients. Conclusion : En première ligne, la prise en charge de la douleur chronique non cancéreuse modérée à sévère paraît sous-optimale. Elle implique différents médecins de famille suggérant un manque de cohérence et de continuité. Les effets secondaires aux analgésiques sont prévalents et souvent non traités; la satisfaction est faible et les patients paraissent réticents à prendre les médicaments contre la douleur. Ces résultats indiquent clairement la nécessité d’optimiser la pharmacothérapie de ces patients.