624 resultados para efficacité de détection
Resumo:
L'hépatite C pose un problème de santé publique majeur, dans la mesure où le risque de développer une infection chronique est relativement élevé (40 à 60%) et où la résistance au traitement de choix - l’interféron alpha pégylé et la ribavirine - touche près de la moitié des patients. Cette persistence virale repose avant tout sur de puissantes stratégies d’évasion du système immunitaire inné de l’hôte par le virus. Dans ce projet, nous nous sommes intéressés à la caractérisation de la réponse antivirale dans des hépatocytes primaires humains normaux et chroniquement infectés avec le VHC, un domaine encore largement inconnu dû à la difficulté d’obtenir ce type de matériel primaire. Nous avons étudié la fonctionnalité de deux voies majeures de détection des pathogènes viraux suite à l’exposition d’hépatocytes primaires humains à de l’ARNdb intracellulaire, via le récepteur et adaptateur RIG-I/MDA5-CARDIF, et extracellulaire via TLR3-TRIF, mimant ainsi les étapes précoces de la détection d’un virus par la cellule hôte. Nous avons établi par RT-PCR quantitatif et analyse transcriptomique par microarray, que ces deux voies de stimulation sont fonctionnelles dans des hépatocytes primaires normaux et que leur activation entraîne à la fois l’expression de gènes antiviraux communs (ISG56, ISG15, CXCL10, …) mais aussi spécifiques avec les gènes IL28A, IL28B et IL29 qui sont une signature de l’activation de la voie de détection de l’ARNdb intracellulaire. La protéine virale NS3/4A joue un rôle majeur à la fois dans le clivage de la polyprotéine virale initiale, mais aussi en interférant avec les cascades de signalisation engagées suite à la détection par la cellule hôte de l’ARN du VHC. Plus particulièrement, nous avons démontré que l’expression ectopique de NS3/4A dans des hépatocytes primaires humains normaux entraîne une diminution significative de l’induction des gènes antiviraux dûe au clivage de CARDIF au cours de l’activation de la voie de signalisation médiée par RIG-I. Nous avons également démontré que l’expression de la NS3/4A entraîne des modifications de l’expression de gènes-clé impliqués dans la régulation de l’apoptose et du programme de mort cellulaire, en particulier lorsque la voie TLR3 est induite. L’ensemble de ces effets sont abolis en présence de BILN2061, inhibiteur spécifique de NS3/4A. Malgré les stratégies de subversion de l’immunité innée par le VHC, nous avons démontré l’induction significative de plusieurs ISGs et chemokines dans des hepatocytes primaires provenant de patients chroniquement infectés avec le VHC, sans toutefois détecter d’interférons de type I, III ou certains gènes antiviraux précoces comme CCL5. Ces observations, concomitantes avec une diminution de l’expression de CARDIF et une correlation inverse entre les niveaux d’ARNm des ISGs et l’ARN viral révèlent une réponse antivirale partielle dûe à des mécanismes interférents sous-jacents. Cette réponse antivirale détectable mais inefficace est à mettre en lien avec l’échec du traitement classique PEG-IFN-ribavirine chez la moitié des patients traités, mais aussi en lien avec l’inflammation chronique et les dommages hépatiques qui mènent ultimement au développement d’une fibrose puis d’une cirrhose chez une grande proportion de patients chroniquement infectés.
Resumo:
Que faut-il entendre par l’Efficacité du contrat ? Chez les économistes et dans les écrits de l’analyse économique du droit, le terme efficacité est souvent employé comme traduction de efficiency. Dans le discours économique, ce terme a un sens technique et s’entend, pour faire court, d’un état de l’économie où aucun réarrangement des ressources ne permettrait d’améliorer le bien-être collectif, tous les gains possibles d’échange ayant été réalisés. En français, on voit employés, pour désigner cette idée, les termes d’efficience et d’efficacité, l’un et l’autre souvent qualifiés par l’adjectif économique, pour bien les distinguer du sens ordinaire des termes.
Resumo:
Introduction: La démence peut être causée par la maladie d’Alzheimer (MA), la maladie cérébrovasculaire (MCEREV), ou une combinaison des deux. Lorsque la maladie cérébrovasculaire est associée à la démence, les chances de survie sont considérées réduites. Il reste à démontrer si le traitement avec des inhibiteurs de la cholinestérase (ChEIs), qui améliore les symptômes cognitifs et la fonction globale chez les patients atteints de la MA, agit aussi sur les formes vasculaires de démence. Objectifs: La présente étude a été conçue pour déterminer si la coexistence d’une MCEREV était associée avec les chances de survie ou la durée de la période jusqu’au placement en hebergement chez les patients atteints de la MA et traités avec des ChEIs. Des études montrant de moins bons résultats chez les patients souffrant de MCEREV que chez ceux n’en souffrant pas pourrait militer contre l’utilisation des ChEIs chez les patients atteints à la fois de la MA et la MCEREV. L'objectif d'une seconde analyse était d'évaluer pour la première fois chez les patients atteints de la MA l'impact potentiel du biais de « temps-immortel » (et de suivi) sur ces résultats (mort ou placement en hebergement). Méthodes: Une étude de cohorte rétrospective a été conduite en utilisant les bases de données de la Régie de l’Assurance Maladie du Québec (RAMQ) pour examiner la durée de la période jusqu’au placement en hebergement ou jusqu’au v décès des patients atteints de la MA, âgés de 66 ans et plus, avec ou sans MCEREV, et traités avec des ChEIs entre le 1er Juillet 2000 et le 30 Juin 2003. Puisque les ChEIs sont uniquement indiquées pour la MA au Canada, chaque prescription de ChEIs a été considérée comme un diagnostic de la MA. La MCEREV concomitante a été identifié sur la base d'un diagnostic à vie d’un accident vasculaire cérébral (AVC) ou d’une endartériectomie, ou d’un diagnostic d'un accident ischémique transitoire au cours des six mois précédant la date d’entrée. Des analyses séparées ont été conduites pour les patients utilisant les ChEIs de façon persistante et pour ceux ayant interrompu la thérapie. Sept modèles de régression à risque proportionnel de Cox qui ont varié par rapport à la définition de la date d’entrée (début du suivi) et à la durée du suivi ont été utilisés pour évaluer l'impact du biais de temps-immortel. Résultats: 4,428 patients ont répondu aux critères d’inclusion pour la MA avec MCEREV; le groupe de patients souffrant seulement de la MA comptait 13,512 individus. Pour le critère d’évaluation composite considérant la durée de la période jusqu’au placement en hebergement ou jusqu’au décès, les taux de survie à 1,000 jours étaient plus faibles parmi les patients atteints de la MA avec MCEREV que parmi ceux atteints seulement de la MA (p<0.01), mais les différences absolues étaient très faibles (84% vs. 86% pour l’utilisation continue de ChEIs ; 77% vs. 78% pour la thérapie avec ChEIs interrompue). Pour les critères d’évaluation secondaires, la période jusqu’au décès était plus courte chez les patients avec la MCEREV que sans la MCEREV, mais la période jusqu’au vi placement en hebergement n’était pas différente entre les deux groupes. Dans l'analyse primaire (non-biaisée), aucune association a été trouvée entre le type de ChEI et la mort ou le placement en maison d'hébergement. Cependant, après l'introduction du biais de temps-immortel, on a observé un fort effet différentiel. Limitations: Les résultats peuvent avoir été affectés par le biais de sélection (classification impropre), par les différences entre les groupes en termes de consommation de tabac et d’indice de masse corporelle (ces informations n’étaient pas disponibles dans les bases de données de la RAMQ) et de durée de la thérapie avec les ChEIs. Conclusions: Les associations entre la coexistence d’une MCEREV et la durée de la période jusqu’au placement en hebergement ou au décès apparaissent peu pertinentes cliniquement parmi les patients atteints de la MA traités avec des ChEIs. L’absence de différence entre les patients atteints de la MA souffrant ou non de la MCEREV suggère que la coexistence d’une MCEREV ne devrait pas être une raison de refuser aux patients atteints de la MA l’accès au traitement avec des ChEIs. Le calcul des « personne-temps » non exposés dans l'analyse élimine les estimations biaisées de l'efficacité des médicaments.
Resumo:
La proprotéine convertase subtilisine/kexine-9 (PCSK9) a été identifiée comme le troisième locus impliqué dans l’hypercholestérolémie autosome dominante (ADH). Les deux autres gènes impliqués dans l’ADH encodent le récepteur des lipoprotéines de faible densité (LDLR) et l’apolipoprotéine B. La PCSK9 est une convertase qui favorise la dégradation du LDLR dans les hépatocytes et augmente le niveau plasmatique de cholestérol des LDL (LDL-C). Les mutations « gain de fonction » de la PCSK9 sont associées à un phénotype d’hypercholestérolémie familiale, tandis que les variantes « perte de fonction » sont associées à un LDL-C réduit et à un risque coronarien plus faible. Pour élucider le rôle physiologique de la PCSK9, nous avons étudié sa régulation génique. En utilisant le RT-PCR quantitatif dans des hépatocytes humains, nous avons analysé la régulation de PCSK9 sous différentes conditions modulant l’expression des gènes impliqués dans le métabolisme du cholestérol. Nous avons démontré que l’expression de la PCSK9 était induite par les statines de manière dose-dépendante et que cette induction était abolie par le mévalonate. De plus, le promoteur de PCSK9 contenait deux motifs conservés pour la régulation par le cholestérol : le sterol regulatory element (SRE) et un site Sp1. La PCSK9 circule dans le plasma sous des formes mature et clivée par la furine. Grâce à notre anticorps polyclonal, nous avons mis au point un test ELISA mesurant la PCSK9 plasmatique totale. Une étude transversale a évalué les concentrations plasmatiques de PCSK9 chez des sujets sains et hypercholestérolémiques, traités ou non par des statines ou une combinaison statine/ezetimibe. Chez 254 sujets sains, la valeur moyenne de PCSK9 (écart-type) était de 89,5 (31,9) µg/L. La concentration plasmatique de la PCSK9 corrélait avec celle de cholestérol total, du LDL-C, des triglycérides (TG), de la glycémie à jeun, l’âge et l’indice de masse corporelle. Le séquençage de PCSK9 chez des sujets aux extrêmes de la distribution des concentrations de PCSK9 de notre cohorte a révélé la présence d’une nouvelle variation « perte de fonction » : R434W. Chez 200 patients hypercholestérolémiques, la concentration de PCSK9 était plus élevée que chez les sujets sains (P<0,04). Elle a augmenté avec une dose croissante de statine (P<0,001), et a augmenté encore plus suite à l’ajout d’ezetimibe (P<0,001). Chez les patients traités, ceux présentant une hypercholestérolémie familiale (HF; due à une mutation du LDLR) avaient des concentrations plus élevées de PCSK9 que les non-HF (P<0,005), et la réduction de LDL-C corrélait positivement avec la concentration de PCSK9 atteinte de la même manière dans les deux sous-catégories (P<0,02 et P<0,005, respectivement). Par ailleurs, une incubation des cellules HepG2 (hépatocytes) et Caco-2 (entérocytes) avec de l’ezetimibe a provoqué une augmentation de l’ARNm de PCSK9 et de NPC1L1 de 1,5 à 2 fois (P<0,05), mais aucune variation significative de PCSK9 sécrétée n’a été observée, suggérant que ces lignées cellulaires ne sont pas un modèle idéal. Nous avons également mesuré le niveau de PCSK9 chez 1 739 Canadiens-français âgés de 9, 13 et 16 ans. La valeur moyenne (écart-type) de PCSK9 dans cette cohorte était de 84,7 (24,7) µg/L, légèrement plus basse que dans la cohorte d’adultes (89,5 (31,9) µg/L). Chez les garçons, la PCSK9 circulante diminuait avec l’âge, tandis que c’était l’inverse chez les filles. Il y avait des associations positives et significatives entre la PCSK9 et la glycémie à jeun, l’insulinémie, le HOMA-IR, et les paramètres lipidiques (TC, LDL-C, TG, HDL-C, apoAI et apoB). Dans l’analyse multivariée, une hausse de 10% de l’insulinémie à jeun était associée à une augmentation de 1 à 2% de PCSK9. La régulation de PCSK9 est typique de celle d’un gène impliqué dans le métabolisme des lipoprotéines et est probablement la cible du facteur de transcription «sterol regulatory element-binding protein » (SREBP-2). La concentration plasmatique de la PCSK9 est associée avec l’âge, le sexe, et de multiples marqueurs métaboliques chez les enfants et les adultes. La détection de la PCSK9 circulante chez les sujets HF et non-HF signifie que ce test ELISA spécifique à PCSK9 pourrait servir à suivre la réponse à la thérapie chez un grand éventail de sujets. PCSK9 semble être une cible thérapeutique prometteuse dans le traitement de l’hypercholestérolémie et de la maladie cardiovasculaire.
Resumo:
S’inscrivant dans le paradigme de la recherche qualitative, cette étude fait état d’une investigation des ressources mobilisées par cinq enseignantes québécoises et cinq enseignantes roumaines pour le développement de la résilience éducationnelle devant la violence scolaire, évaluée comme facteur de risque. L’analyse des données révèle le rôle des compétences professionnelles dans le développement de la résilience éducationnelle, en tant que ressources, chez les enseignantes rencontrées. En tant que recherche exploratoire comparative, cette étude s’intéresse à l’influence des différences culturelles sur la perception et l’impact des expériences de violence vécues, à la mise en pratique des compétences professionnelles, aux sentiments d’efficacité et de satisfaction professionnelle, au développement et au fonctionnement du processus de résilience éducationnelle chez les enseignantes de deux groupes nationaux. L’approche écosystémique met en lumière le caractère de processus dynamique de la résilience éducationnelle qui exige des ressources et repose sur des facteurs dont l’interaction assure son fonctionnement.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Les interventions proactives ou comportementales en classe sont reconnues empiriquement pour leur efficacité à améliorer le comportement ou le rendement scolaire des enfants ayant un TDAH (DuPaul & Eckert, 1997; Hoza, Kaiser, & Hurt, 2008; Pelham & Fabiano, 2008; Zentall, 2005). Or, l’écart entre les interventions probantes et celles retrouvées dans le milieu général de l’éducation souligne l’importance de répliquer les résultats d’études obtenus dans un environnement contrôlé dans un format de livraison réaliste. L’objectif principal de cette thèse est d’élaborer et d’évaluer un programme de consultation individuelle (PCI) fondé sur une démarche de résolution de problème et d’évaluation fonctionnelle, pour soutenir les enseignants du primaire dans la planification et la mise en œuvre cohérente des interventions privilégiées pour aider les enfants ayant un TDAH. D’abord, une recension des principales modalités d’intervention auprès des enfants ayant un TDAH est effectuée afin d’identifier les interventions à inclure lors du développement du programme. Par la suite, des solutions favorisant le transfert des interventions probantes à la classe ordinaire sont détaillées par la proposition du PCI ayant lieu entre un intervenant psychosocial et l’enseignant. Enfin, l’évaluation du PCI auprès de trente-sept paires enfant-enseignant est présentée. Tous les enfants ont un diagnostic de TDAH et prennent une médication (M). Les parents de certains enfants ont participé à un programme d’entraînement aux habiletés parentales (PEHP). L’échantillon final est: M (n = 4), M et PEHP (n = 11), M et PCI (n = 11), M, PEHP et PCI (n = 11). Les résultats confirment l’efficacité du PCI au-delà de M et M + PEHP pour éviter une aggravation des comportements inappropriés et améliorer le rendement scolaire des enfants ayant un TDAH. Par ailleurs, une augmentation de l’utilisation des stratégies efficaces par l’enseignant est observable lorsqu’il a à la fois participé au PCI et reçu une formation continue sur le TDAH en cours d’emploi. Les implications cliniques de l’intervention pour l’enfant ayant un TDAH et son enseignant de classe ordinaire sont discutées.
Resumo:
La perte au suivi diminue grandement l’efficacité des interventions de prévention de la transmission mère-enfant du VIH en Afrique subsaharienne. Devrait-on donc choisir des traitements courts ou longs de pTME? Nous avons mené une revue systématique des études sur l’efficacité de traitements avec et sans composante anténatale et évalué l’impact de la perte au suivi sur leur efficacité. Nous avons trouvé qu’après ajustement pour la perte au suivi, les traitements avec composante anténatale ont encore une efficacité plus élevée à prévenir la TME. Les intervenants ne devraient pas craindre l’utilisation de traitements plus longs auprès de populations à risque de perte au suivi. Plus d’études sont nécessaires pour déterminer comment les interventions peuvent être adaptées au virage dans la pTME.
Resumo:
À l’heure où nous écrivons, l’ONU enregistre 33 million de personnes touchées par le VIH/Sida. Dans les perspectives actuelles de lutte contre la propagation de la pandémie, plusieurs moyens peuvent être mis en place : utilisation du condom, dépistage, échange de seringues, abstinence… Mais une question se pose : quels éléments nous influencent dans l’utilisation d’une telle ou telle pratique? Faisant usage des stratégies de marketing social, les campagnes de prévention contre le VIH/Sida mettent l’emphase sur l’empowerment des individus face à leur prise de risque. Par ce biais, on tente de changer certains comportements et d’en adopter de nouveaux plus sécuritaires pour la santé. Nous avons évalué ici trois (3) campagnes de prévention contre le VIH/Sida à Montréal. Le but de cette recherche a été de distinguer les éléments pouvant faciliter la planification des campagnes dans une perspective de diminution de l’incidence du VIH/Sida. Lors de la prise de décisions concernant l'évaluation d'une campagne de prévention de lutte contre le VIH/Sida, plusieurs points fondamentaux sont à considérer : la source de l’information, le message, le canal utilisé, les caractéristiques du récepteur et l’effet désiré par la campagne. Ces aspects sont primordiaux dans la prise de conscience de la campagne. Mais attention, ce type d'évaluation n'est pas conçu pour en démontrer son efficacité. Notre étude nous confirme l’importance de l’évaluation des campagnes de prévention aux différents stades de leurs conceptions. Cette recherche nous pousse à connaître les détails du programme de prévention et ainsi avoir une bonne compréhension du déroulement de l'intervention dans une perspective future d’en expliquer l’efficacité
Resumo:
La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.
Resumo:
Les antipatrons sont de “mauvaises” solutions à des problèmes récurrents de conception logicielle. Leur apparition est soit due à de mauvais choix lors de la phase de conception soit à des altérations et des changements continus durant l’implantation des programmes. Dans la littérature, il est généralement admis que les antipatrons rendent la compréhension des programmes plus difficile. Cependant, peu d’études empiriques ont été menées pour vérifier l’impact des antipatrons sur la compréhension. Dans le cadre de ce travail de maîtrise, nous avons conçu et mené trois expériences, avec 24 sujets chacune, dans le but de recueillir des données sur la performance des sujets lors de tâches de compréhension et d’évaluer l’impact de l’existence de deux antipatrons, Blob et Spaghetti Code, et de leurs combinaisons sur la compréhension des programmes. Nous avons mesuré les performances des sujets en terme : (1) du TLX (NASA task load index) pour l’éffort ; (2) du temps consacré à l’exécution des tâches ; et, (3) de leurs pourcentages de réponses correctes. Les données recueillies montrent que la présence d’un antipatron ne diminue pas sensiblement la performance des sujets alors que la combinaison de deux antipatrons les entrave de façon significative. Nous concluons que les développeurs peuvent faire face à un seul antipatron, alors que la combinaison de plusieurs antipatrons devrait être évitée, éventuellement par le biais de détection et de réusinage.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Le relevé DEBRIS est effectué par le télescope spatial Herschel. Il permet d’échantillonner les disques de débris autour d’étoiles de l’environnement solaire. Dans la première partie de ce mémoire, un relevé polarimétrique de 108 étoiles des candidates de DEBRIS est présenté. Utilisant le polarimètre de l’Observatoire du Mont-Mégantic, des observations ont été effectuées afin de détecter la polarisation due à la présence de disques de débris. En raison d’un faible taux de détection d’étoiles polarisées, une analyse statistique a été réalisée dans le but de comparer la polarisation d’étoiles possédant un excès dans l’infrarouge et la polarisation de celles n’en possédant pas. Utilisant la théorie de diffusion de Mie, un modèle a été construit afin de prédire la polarisation due à un disque de débris. Les résultats du modèle sont cohérents avec les observations. La deuxième partie de ce mémoire présente des tests optiques du polarimètre POL-2, construit à l’Université de Montréal. L’imageur du télescope James-Clerk-Maxwell passe de l’instrument SCUBA à l’instrument SCUBA-2, qui sera au moins cent fois plus rapide que son prédécesseur. De même, le polarimètre suit l’amélioration et un nouveau polarimètre, POL-2, a été installé sur SCUBA-2 en juillet 2010. Afin de vérifier les performances optiques de POL-2, des tests ont été exécutés dans les laboratoires sub-millimétriques de l’Université de Western Ontario en juin 2009 et de l’Université de Lethbridge en septembre 2009. Ces tests et leurs implications pour les observations futures sont discutés.
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.