792 resultados para Modèles de prédiction
Resumo:
Le cancer épithélial de l’ovaire (EOC) est le plus mortel des cancers gynécologiques. Cette maladie complexe progresse rapidement de façon difficilement décelable aux stades précoces. De plus, malgré une chirurgie cytoréductive et des traitements de chimiothérapie le taux de survie des patientes diagnostiquées aux stades avancées demeurt faible. Dans le but d’étudier l’EOC dans un contexte ex vivo, l’utilisation de modèles cellulaires est indispensable. Les lignées cellulaires d’EOC sont un outil pratique pour la recherche cependant, la façon dont l'expression des gènes est affectée en culture par comparaison à la tumeur d'origine n'est pas encore bien élucidée. Notre objectif était donc de développer et de caractériser de nouveaux modèles de culture in vitro qui réflèteront plus fidèlement la maladie in vivo. Nous avons tout d’abord utiliser des lignées cellulaires disponibles au laboratoire afin de mettre au point un modèle 3D de culture in vitro d’EOC. Des sphéroïdes ont été générés à l’aide de la méthode des gouttelettes inversées, une méthode pionnière pour la culture des cellules tumorales. Nous avons ensuite procédé à une analyse des profils d’expression afin de comparer le modèle sphéroïde au modèle de culture en monocouche et le modèle xénogreffe in vivo. Ainsi, nous avons identifié des gènes stratifiant les modèles tridimensionnels, tant in vivo qu’in vitro, du modèle 2D monocouche. Parmi les meilleurs candidats, nous avons sélectionné S100A6 pour une caractérisation ultérieure. L’expression de ce gène fût modulée afin d’étudier l’impact de son inhibition sur les paramètres de croissance des sphéroïdes. L’inhibition de ce gène a comme effet de réduire la motilité cellulaire mais seulement au niveau du modèle sphéroïde. Finalement, toujours dans l’optique de développer des modèles d’EOC les plus représentatifs de la maladie in vivo, nous avons réussi à développer des lignées cellulaires uniques dérivées de patientes atteintes d’EOC du type séreux, soit le plus commun des EOC. Jusque là, très peu de lignées cellulaires provenant de ce type de cancer et de patientes n’ayant pas reçu de chimiothérapie ont été produites. De plus, nous avons pour la première fois caractérise des lignées d’EOC de type séreux provenant à la fois de l’ascite et de la tumeur solide de la même patiente.
Resumo:
Durant une infection pulmonaire, les porcs sont souvent infectés par plus d’un microorganisme. Actinobacillus pleuropneumoniae et le virus du syndrome reproducteur et respiratoire porcin (VSRRP) sont des pathogènes qui peuvent infecter de manière simultanée les porcs. L’objectif du présent projet est d’étudier l’interaction entre ces pathogènes. Les deux lignées cellulaires permissives au VSRRP utilisées sont les cellules « St-Jude porcine lung » (SJPL) et MARC-145. Les cellules ont été pré-infectées avec le VSRRP, puis infectées avec A. pleuropneumoniae. Un dosage de la lactate déshydrogénase a montré qu’une co-infection VSRRP-A. pleuropneumoniae comparée à une infection simple augmente significativement la cytotoxicité. Dans les mêmes conditions expérimentales, une pré-infection virale ne semble pas affecter l’adhérence d’A. pleuropneumoniae aux cellules. À l’aide de tests ELISA, il a été possible de démontrer la production d’IL-8 et d’INF-γ lorsqu’il y a infection des cellules. Pour ce qui est du TNF-α, d’IL-6 et d’IL-10, ces cytokines ne sont pas détectées en présence des pathogènes étudiés. Des expériences de pré-infection bactérienne suivie d’infection virale ont également été réalisées. Il a été démontré que la pré-infection avec A. pleuropneumoniae diminuait la réplication du VSRRP chez la lignée cellulaire SJPL, mais cela n’est pas observé avec la lignée cellulaire MARC-145. Les résultats préliminaires ont démontré que cette diminution de la réplication serait causée par une molécule de faible poids moléculaire sécrétée dans le surnageant bactérien et celle-ci serait résistante à la chaleur. Les lignées cellulaires SJPL et MARC-145 représentent de bons modèles pour l’étude des infections mixtes des voies respiratoires du porc.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.
Resumo:
Huit instruments d’évaluation du risque ont été appliqués sur 580 délinquants sexuels. Il s’agit du VRAG, du SORAG, du RRASOR, de la Statique-99, de la Statique-2002, du RM-2000, du MnSORT-R et du SVR-20. De plus, les sujets ont été cotés sur la PCL-R, qui vise la mesure de la psychopathie, mais qui a fait ses preuves en matière de prédiction de la récidive (Gendreau, Little, et Goggin, 1996). En vue de mesurer l’efficacité de ces instruments et de la PCL-R, une période de suivi de 25 ans a été observée. Aussi, une division de l’échantillon a été faite par rapport à l’âge au moment de la libération, afin de mesurer les différences entre les délinquants âgés de 34 ans et moins et ceux de 35 ans et plus. Le présent travail vise à répondre à trois objectifs de recherche, soit 1) Décrire l’évolution du risque en fonction de l’âge, 2) Étudier le lien entre l’âge, le type de délinquant et la récidive et 3) Comparer l’efficacité de neuf instruments structurés à prédire quatre types de récidive en fonction de l’âge. Les résultats de l’étude suggèrent que l’âge influence le niveau de risque représenté par les délinquants. Par ailleurs, les analyses des différents types de récidive indiquent que le type de victime privilégié par les délinquants influence également ce niveau de risque. Les implications théoriques et pratiques seront discutées.
Resumo:
Plusieurs études ont confirmé que certains traits de personnalité des enfants et certaines attitudes et pratiques éducatives de leurs parents constituaient des prédicteurs des comportements perturbateurs à l’adolescence. Toutefois, la majorité des recherches ont adopté un modèle postulant des relations directes et indépendantes entre ces facteurs de risque et des comportements perturbateurs. Le modèle transactionnel est plus réaliste parce qu’il postule des relations bidirectionnelles à travers le temps entre ces deux facteurs de risque. Cette étude visait à vérifier l’existence de relations bidirectionnelles entre les traits de personnalité des enfants et les attitudes parentales de leur mère mesurés à deux reprises durant l’enfance (à 6 et 7 ans), pour ensuite vérifier si les comportements perturbateurs des enfants mesurés à l’adolescence (15 ans) pouvaient être prédits par les traits de personnalité et les attitudes parentales. Les données utilisées proviennent d’une étude longitudinale prospective de 1000 garçons et 1000 filles évalués à plusieurs reprises de la maternelle à l’adolescence. Six traits de personnalité des enfants et deux attitudes parentales ont été évalués par les mères à 6 et 7 ans, alors que les diagnostics de troubles perturbateurs (trouble des conduites, trouble oppositionnel avec provocation, trouble de déficit de l’attention/hyperactivité) ont été évalués par les adolescents et les mères à 15 ans. Afin de tester les hypothèses de recherche, des analyses de cheminement (« path analysis ») multi-groupes basées sur la modélisation par équations structurales ont été utilisées. Les résultats ont confirmé la présence de relations bidirectionnelles entre les traits de personnalité de l’enfant et les attitudes parentales durant l’enfance. Toutefois, peu de relations étaient significatives et celles qui l’étaient étaient de faible magnitude. Les modèles multi-groupes ont par ailleurs confirmé la présence de relations bidirectionnelles différentes selon le sexe. En ce qui concerne la prédiction des comportements perturbateurs, de façon générale, surtout les traits de personnalité et les attitudes parentales à 6 ans (plutôt qu’à 7 ans) ont permis de les prédire. Néanmoins, peu de relations prédictives se sont avérées significatives. En somme, cette étude est une des rares à avoir démontré la présence de relations bidirectionnelles entre la personnalité de l’enfant et les attitudes parentales avec des données longitudinales. Ces résultats pourraient avoir des implications théoriques pour les modèles explicatifs des comportements perturbateurs, de même que des implications pratiques pour le dépistage des enfants à risque.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Le récepteur de l'acide rétinoïque RAR est une protéine de la superfamille des récepteurs nucléaires liant le ligand acide rétinoïque (AR). En présence de son ligand, RAR induit la transcription de ses gènes cibles alors qu'en son absence la transcription est inhibée. Le mécanisme de régulation de RAR est altéré dans les lignées cellulaires humaines de carcinome mammaire dû à une baisse de capacité de synthèse de l'AR. Aussi, l'expression des microARN (miR) est perturbée dans le cancer du sein et un grand nombre de gènes ont été identifiés, après une analyse in-silico, comme des cibles prédites des miRs. Ces derniers peuvent être régulés pas des facteurs de transcription et ils sont capables d'inhiber la prolifération cellulaire et d'induire l'apoptose via la régulation de leurs cibles. Ainsi, les miRs peuvent jouer un rôle dans le mécanisme de régulation de RAR et être impliqués dans des boucles de régulation avec ce récepteur. Dans le cadre de ce travail, nous décrivons une approche développée pour prédire et caractériser des circuits de régulation au niveau transcriptionnel et post-transcriptionnel dans le cancer du sein. Nous nous sommes intéressés aux boucles de régulation de type feed-forward où RAR régule un miR et en commun ils régulent un ensemble de gènes codants pour des protéines dans les cellules tumorales mammaires MCF7 et SKBR3. Ces circuits ont été construits en combinant des données de ChIP-chip de RAR et des données de micro-puces d'ADN tout en utilisant des outils in-silico de prédiction des gènes cibles de miRs. Afin de proposer le modèle approprié de régulation, une analyse in-silico des éléments de réponse de l'AR (RARE) dans les promoteurs des miRs est réalisée. Cette étape permet de prédire si la régulation par RAR est directe ou indirecte. Les boucles ainsi prédites sont filtrées en se basant sur des données d'expression de miR existantes dans des bases de données et dans différentes lignées cellulaires, en vue d'éliminer les faux positifs. De plus, seuls les circuits pertinents sur le plan biologique et trouvés enrichis dans Gene Ontology sont retenus. Nous proposons également d'inférer l'activité des miRs afin d'orienter leur régulation par RAR. L'approche a réussi à identifier des boucles validées expérimentalement. Plusieurs circuits de régulation prédits semblent être impliqués dans divers aspects du développement de l'organisme, de la prolifération et de la différenciation cellulaire. De plus, nous avons pu valider que let-7a peut être induit par l'AR dans les MCF7.
Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiens
Resumo:
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.