11 resultados para inférence simultanée
em Université de Montréal
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Dans les dernières années, les perturbateurs endocriniens ont été observés dans les rivières qui reçoivent des entrées importantes d’eaux usées. Parmi les perturbateurs endocriniens, les hormones stéroïdiennes naturelles et synthétiques sont des composés dont le potentiel d'imiter ou d'interférer avec les fonctions hormonales normales (développement, croissance et reproduction), est reconnu même au niveau ultra-traces (ng L-1). Bien que les hormones conjuguées soient moins actives que les hormones libres, elles peuvent être clivées et redevenir libres une fois exposées aux processus microbiens avant ou pendant le traitement des eaux usées. En raison de la nécessité d'identifier et de quantifier ces composés dans l'eau, une nouvelle méthode, entièrement automatisée, a été développée pour la détermination simultanée des deux formes de plusieurs hormones stéroïdiennes (conjuguées et libres) dans les matrices d'eau et dans l’urine des femmes. La méthode est basée sur l'extraction en phase solide couplée en ligne à la chromatographie liquide et la spectrométrie de masse en tandem (SPE-LC-MS/MS). Plusieurs paramètres ont été évalués dans le but d'optimiser l'efficacité de la méthode, tels que le type et le débit de la phase mobile, des différentes colonnes de SPE et de chromatographie, ainsi que différentes sources et modes d'ionisation des échantillons pour la MS. La méthode démontre une bonne linéarité (R2 > 0.993), ainsi qu'une précision avec un coefficient de variance inférieure à 10%. Les limites de quantification varient d’un minimum de 3 à 15 ng L-1 pour un volume d'injection entre 1 mL et 5 mL et le recouvrement des composés varie de 72 % à 117 %.
Resumo:
L'exposition aux mélanges de contaminants (environnementaux, alimentaires ou thérapeutiques) soulève de nombreuses interrogations et inquiétudes vis-à-vis des probabilités d'interactions toxicocinétiques et toxicodynamiques. Une telle coexposition peut influencer le mode d’action des composants du cocktail et donc de leur toxicité, suite à un accroissement de leurs concentrations internes. Le bisphénol A (4 dihydroxy-2,2-diphenylpropane) est un contaminant chimique répandu de manière ubiquitaire dans notre environnement, largement utilisé dans la fabrication des plastiques avec l’un des plus grands volumes de production à l’échelle mondiale. Il est un perturbateur endocrinien par excellence de type œstrogèno-mimétique. Cette molécule est biotransformée en métabolites non toxiques par un processus de glucuronidation. L'exposition concomitante à plusieurs xénobiotiques peut induire à la baisse le taux de glucuronidation du polluant chimique d'intérêt, entre autres la co-exposition avec des médicaments. Puisque la consommation de produits thérapeutiques est un phénomène grandissant dans la population, la possibilité d’une exposition simultanée est d’autant plus grande et forte. Sachant que l'inhibition métabolique est le mécanisme d'interaction le plus plausible pouvant aboutir à une hausse des niveaux internes ainsi qu’à une modulation de la toxicité prévue, la présente étude visait d'abord à confirmer et caractériser ce type d'interactions métaboliques entre le bisphénol A et le naproxène, qui est un anti-inflammatoire non stéroïdiennes (AINS), sur l'ensemble d'un organe intact en utilisant le système de foie de rat isolé et perfusé (IPRL). Elle visait ensuite à déterminer la cinétique enzymatique de chacune de ces deux substances, seule puis en mélange binaire. Dans un second temps, nous avons évalué aussi l’influence de la présence d'albumine sur la cinétique métabolique et le comportement de ces deux substances étudiées en suivant le même modèle de perfusion in vivo au niveau du foie de rat. Les constantes métaboliques ont été déterminées par régression non linéaire. Les métabolismes du BPA et du NAP seuls ont montré une cinétique saturable avec une vélocité maximale (Vmax) de 8.9 nmol/min/ mg prot de foie et une constante d'affinité de l'enzyme pour le substrat (Km) de 51.6 μM pour le BPA et de 3 nmol/min/mg prot de foie et 149.2 μM pour le NAP. L'analyse des expositions combinées suggère une inhibition compétitive partielle du métabolisme du BPA par le NAP avec une valeur de Ki estimée à 0.3542 μM. Les résultats obtenus montrent que l’analyse de risque pour les polluants environnementaux doit donc prendre en considération la consommation des produits pharmaceutiques comme facteur pouvant accroitre le niveau interne lors d’une exposition donnée. Ces données in vivo sur les interactions métaboliques pourraient être intégrées dans un modèle pharmacocinétique à base physiologique (PBPK) pour prédire les conséquences toxicococinétique (TK) de l'exposition d'un individu à ces mélanges chimiques.
Resumo:
Les canaux calciques de type L CaV1.2 sont principalement responsables de l’entrée des ions calcium pendant la phase plateau du potentiel d’action des cardiomyocytes ventriculaires. Cet influx calcique est requis pour initier la contraction du muscle cardiaque. Le canal CaV1.2 est un complexe oligomérique qui est composé de la sous-unité principale CaVα1 et des sous-unités auxiliaires CaVβ et CaVα2δ1. CaVβ joue un rôle déterminant dans l’adressage membranaire de la sous-unité CaVα1. CaVα2δ1 stabilise l’état ouvert du canal mais le mécanisme moléculaire responsable de cette modulation n’a pas été encore identifié. Nous avons récemment montré que cette modulation requiert une expression membranaire significative de CaVα2δ1 (Bourdin et al. 2015). CaVα2δ1 est une glycoprotéine qui possède 16 sites potentiels de glycosylation de type N. Nous avons donc évalué le rôle de la glycosylation de type-N dans l’adressage membranaire et la stabilité de CaVα2δ1. Nous avons d’abord confirmé que la protéine CaVα2δ1 recombinante, telle la protéine endogène, est significativement glycosylée puisque le traitement à la PNGase F se traduit par une diminution de 50 kDa de sa masse moléculaire, ce qui est compatible avec la présence de 16 sites Asn. Il s’est avéré par ailleurs que la mutation simultanée de 6/16 sites (6xNQ) est suffisante pour 1) réduire significativement la densité de surface de! CaVα2δ1 telle que mesurée par cytométrie en flux et par imagerie confocale 2) accélérer les cinétiques de dégradation telle qu’estimée après arrêt de la synthèse protéique et 3) diminuer la modulation fonctionnelle des courants générés par CaV1.2 telle qu’évaluée par la méthode du « patch-clamp ». Les effets les plus importants ont toutefois été obtenus avec les mutants N663Q, et les doubles mutants N348Q/N468Q, N348Q/N812Q, N468Q/N812Q. Ensemble, ces résultats montrent que Asn663 et à un moindre degré Asn348, Asn468 et Asn812 contribuent à la biogenèse et la stabilité de CaVα2δ1 et confirment que la glycosylation de type N de CaVα2δ1 est nécessaire à la fonction du canal calcique cardiaque de type L.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
La compréhension du discours, et son évolution au cours du vieillissement, constitue un sujet d’une grande importance par sa complexité et sa place dans la préservation de la qualité de vie des aînés. Les objectifs de cette thèse étaient d’évaluer l’influence du vieillissement et du niveau de scolarité sur les capacités de compréhension du discours et sur l’activité cérébrale s’y rattachant. Pour ce faire, trois groupes (jeunes adultes ayant un niveau universitaire de scolarité, personnes âgées ayant un niveau universitaire de scolarité et personnes âgées ayant un niveau secondaire de scolarité) ont réalisé une tâche où ils devaient lire de courtes histoires, puis estimer la véracité d’une affirmation concernant cette histoire. Les capacités de compréhension correspondant aux traitements de trois niveaux du modèle de construction-intégration de Kintsch (la microstructure, la macrostructure et le modèle de situation) ont été évaluées. L’imagerie optique (NIRS) a permis d’estimer les variations d’oxyhémoglobine (HbO) et de déoxyhémoglobine (HbR) tout au long de la tâche. Les résultats ont démontré que les personnes âgées étaient aussi aptes que les plus jeunes pour rappeler la macrostructure (essentiel du texte), mais qu’ils avaient plus de difficulté à rappeler la microstructure (détails) et le modèle de situation (inférence et intégration) suite à la lecture de courts textes. Lors de la lecture, les participants plus âgés ont également montré une plus grande activité cérébrale dans le cortex préfrontal dorsolatéral gauche, ce qui pourrait être un mécanisme de compensation tel que décrit dans le modèle CRUNCH. Aucune différence significative n’a été observée lors de la comparaison des participants âgés ayant un niveau universitaire de scolarité et ceux ayant un niveau secondaire, tant au niveau des capacités de compréhension que de l’activité cérébrale s’y rattachant. Les deux groupes ont cependant des habitudes de vie stimulant la cognition, entre autres, de bonnes habitudes de lecture. Ainsi, ces habitudes semblent avoir une plus grande influence que l’éducation sur les performances en compréhension et sur l’activité cérébrale sous-jacente. Il se pourrait donc que l’éducation influence la cognition en promouvant des habitudes favorisant les activités cognitives, et que ce soit ces habitudes qui aient en bout ligne un réel impact sur le vieillissement cognitif.
Resumo:
Alors que d’énormes efforts sont mis de l’avant pour mettre en place des stratégies thérapeutiques contre l’infection au VIH-1, il est nécessaire de mieux cerner les déterminants viraux qui aideront à l’efficacité de celles-ci. En ce sens, une volumineuse littérature scientifique suggère que les anticorps contre le VIH-1 possédant une capacité à induire une réponse effectrice dépendante de leur portion Fc puissent jouer un rôle important dans la prévention de l’infection et dans la progression de la maladie. Cependant, peu d’information est disponible concernant les déterminants reconnus par ces anticorps et comment le virus s’en protège. Le but des travaux présentés dans cette thèse est donc d’élucider les mécanismes viraux contrôlant la reconnaissance des cellules infectées par ces anticorps capables d’induire une réponse effectrice. De par les corrélats de protection identifiés au cours de l’essai vaccinal RV144, les travaux présentés ici se concentrent sur la réponse cytotoxique dépendante des anticorps (ADCC), puisqu’il s’agit d’une réponse effectrice suggérée pour avoir joué un rôle dans la protection observée dans le RV144, seul essai vaccinal anti-VIH à avoir démontré un certain degré de protection. De plus, plusieurs anticorps capables d’induire cette réponse contre le VIH sont connus pour reconnaître les glycoprotéines de surface du virus (Env) dans une conformation dite ouverte, c’est-à-dire la conformation adoptée lors de la liaison d’Env avec son récepteur CD4 (épitopes CD4i). Nous avons mis au point deux techniques in vitro permettant d’étudier ces changements de conformation ainsi que leur impact sur la réponse ADCC. Les techniques mises au point, un ÉLISA sur base cellulaire pour mesurer les changements de conformation d’Env ainsi que la mesure de la réponse ADCC par cytométrie en flux, nous ont permis de démontrer comment le virus empêche l’exposition des épitopes d’Env CD4i. L’activité simultanée des protéines accessoires virales Nef et Vpu sur le retrait du récepteur CD4 de la surface des cellules infectées et l’inhibition du facteur de restriction Tétherine / BST-2 par Vpu contrôlent à la fois les niveaux d’Env et de CD4 à la surface cellulaire et donc modulent l’interaction Env-CD4 et ultimement la susceptibilité à la réponse ADCC contre les épitopes CD4i reconnus par des anticorps hautement prévalents lors de l’infection au VIH. Également, nous démontrons comment de petits composés mimant la liaison de CD4 sur Env sont capables de forcer l’exposition des épitopes CD4i, même en présence des protéines Nef et Vpu, et donc d’augmenter la susceptibilité des cellules infectées à la réponse ADCC. Une autre découverte présentée ici est la démonstration que la portion soluble d’Env produite par les cellules infectées peut interagir avec le récepteur CD4 des cellules non-infectées avoisinantes et induire leur reconnaissance et élimination par la réponse ADCC contre Env. Somme toute, la modulation de la réponse ADCC par l’interaction Env–CD4 représente un important pilier de la relation hôte – pathogène du VIH-1 de la perspective des réponses Fc-dépendantes. Les travaux présentés dans cette thèse ont le potentiel d’être utilisés dans l’élaboration de nouvelles stratégies antivirales tout en élargissant les connaissances fondamentales de cette interaction hôte – pathogène.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.