18 resultados para density estimation, thresholding, wavelet bases, Besov space
em Université de Montréal, Canada
Resumo:
Les sécrétines peptidiques de l’hormone de croissance (GHRPs) constituent une classe de peptides synthétiques capables de stimuler la sécrétion de l’hormone de croissance (GH). Cette activité est médiée par leur liaison à un récepteur couplé aux protéines G : le récepteur des sécrétines de l’hormone de croissance (GHS-R1a), identifié subséquemment comme le récepteur de la ghréline. La ghréline est un peptide de 28 acides aminés sécrété principalement par les cellules de la muqueuse de l’estomac, qui exerce de nombreux effets périphériques indépendamment de la sécrétion de l’hormone de croissance. Les effets indépendants de la sécrétion de GH incluent, entre autres, des actions sur le contrôle de la prise de nourriture, le métabolisme énergétique, la fonction cardiaque, le système immunitaire et la prolifération cellulaire. L’étude de la distribution périphérique des sites de liaison des GHRPs nous a permis d’identifier un second site, le CD36, un récepteur scavenger exprimé dans plusieurs tissus dont le myocarde, l’endothélium de la microvasculature et les monocytes/macrophages. Le CD36 exprimé à la surface du macrophage joue un rôle clé dans l’initiation du développement de l’athérosclérose par la liaison et l’internalisation des lipoprotéines de faible densité oxydées (LDLox) dans l’espace sous-endothélial de l’artère. L’hexaréline, un analogue GHRP, a été développé comme agent thérapeutique pour stimuler la sécrétion de l’hormone de croissance par l’hypophyse. Sa propriété de liaison aux récepteurs GHS-R1a et CD36 situés en périphérie et particulièrement sa capacité d’interférer avec la liaison des LDLox par le CD36 nous ont incité à évaluer la capacité de l’hexaréline à moduler le métabolisme lipidique du macrophage. L’objectif principal de ce projet a été de déterminer les effets de l’activation des récepteurs CD36 et GHS-R1a, par l’hexaréline et la ghréline, le ligand endogène du GHS-R1a, sur la physiologie du macrophage et de déterminer son potentiel anti-athérosclérotique. Les résultats montrent premièrement que l’hexaréline et la ghréline augmentent l’expression des transporteurs ABCA1 et ABCG1, impliqués dans le transport inverse du cholestérol, via un mécanisme contrôlé par le récepteur nucléaire PPARγ. La régulation de l’activité transcriptionnelle de PPARγ par l’activation des récepteurs CD36 et GHS-R1a se fait indépendamment de la présence du domaine de liaison du ligand (LBD) de PPARγ et est conséquente de changements dans l’état de phosphorylation de PPARγ. Une étude plus approfondie de la signalisation résultant de la liaison de la ghréline sur le GHS-R1a révèle que PPARγ est activé par un mécanisme de concertation entre les voies de signalisation Gαq/PI3-K/Akt et Fyn/Dok-1/ERK au niveau du macrophage. Le rôle de PPARγ dans la régulation du métabolisme lipidique par l’hexaréline a été démontré par l’utilisation de macrophages de souris hétérozygotes pour le gène de Ppar gamma, qui présentent une forte diminution de l’activation des gènes de la cascade métabolique PPARγ-LXRα-transporteurs ABC en réponse à l’hexaréline. L’injection quotidienne d’hexaréline à un modèle de souris prédisposées au développement de l’athérosclérose, les souris déficientes en apoE sous une diète riche en cholestérol et en lipides, se traduit également en une diminution significative de la présence de lésions athérosclérotiques correspondant à une augmentation de l’expression des gènes cibles de PPARγ et LXRα dans les macrophages péritonéaux provenant des animaux traités à l’hexaréline. L’ensemble des résultats obtenus dans cette thèse identifie certains nouveaux mécanismes impliqués dans la régulation de PPARγ et du métabolisme du cholestérol dans le macrophage via les récepteurs CD36 et GHS-R1a. Ils pourraient servir de cibles thérapeutiques dans une perspective de traitement des maladies cardiovasculaires.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Cette étude teste l’hypothèse que le remodelage osseux dans le deuxième métacarpe peut être utilisé pour estimer l’âge à la mort. Les métacarpes utilisés dans cette analyse proviennent d’un cimetière d’Ontario, incluant des individus d’origine européenne (n=63; 34 hommes; 29 femmes). Leur âge varie de 19 à 61 ans (moyenne: 41,1±11,6). L’âge était connu ou a été estimé indépendamment à partir de la morphologie générale du squelette. À partir de lames minces coupées à la mi-diaphyse, la densité de population des ostéons (OPD; ostéons/mm2 intacts et fragmentaires) a été calculée pour huit colonnes du périoste à l’endoste, deux par quadrant anatomique. Les régressions par calibration classique ont produit une série d’équation pour les estimations de l’âge pour chaque sexe, sexes combinés, et en fonction de la latéralité. La méthode utilisée diminue l’efficacité des estimations mais elle a l’avantage de réduire les biais. Quand les sexes sont combinés, l’OPD est corrélé modérément mais significativement avec l’âge (droit r2= 0,35; gauche r2=0,28). Cependant, quand les hommes et les femmes sont analysés séparément, la corrélation entre l’OPD et l’âge dans l’échantillon féminin est meilleure (droit r2=0,48; gauche r2=0,39) alors que celle des hommes est réduite (droit r2=0,29; gauche r2=0,22). Ce résultat a déjà été observé dans d’autres études, mais n’est pas expliqué. Les résultats démontrent aussi une meilleure corrélation entre l’OPD et l’âge du côté droit que du côté gauche. Tous les résultats présentés ici supportent l’hypothèse que l’OPD du métacarpe est corrélé avec l’âge effectif (c’est-à-dire connu ou estimé), les régressions de l’OPD sur l’âge (droit-gauche combinés ou séparés, sexes combinés ou séparés) étant toutes significatives.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques.
Resumo:
La stéatose hépatique et la détérioration du profil lipidique plasmatique sont des pathologies métaboliques favorisées par la carence œstrogénique post-ménopausique. Cependant les mécanismes à la base de ces pathologies n’ont été que très peu étudiés. Le but de cette thèse a été d’investiguer les mécanismes moléculaires possibles à l’origine de l’hypercholestérolémie et de l’accumulation des lipides (triglycérides : TG et cholestérol) dans le foie en utilisant un modèle animal de la ménopause, la rate Sprague Dawley ovariectomisée (Ovx). Nous avons également examiné si le changement des habitudes de vie comme la pratique de l’exercice physique pouvait prévenir ou corriger les modifications induites par l’Ovx. Enfin, rosuvastatine (statine) a été utilisée comme thérapie pharmacologique de l’hypercholestérolémie dans le but de comprendre son effet au niveau moléculaire chez la rate Ovx. L’objectif de la première étude était de déterminer comment l’Ovx peut affecter les niveaux de TG et de cholestérol dans le foie des rates nourries avec une diète riche en lipides (HF : 42% gras). Les rates ont été soumises à la diète HF ou normale pendant 6 semaines avant d’être Ovx ou Sham (ovariectomie simulée), puis maintenues aux mêmes conditions diététiques pour 6 autres semaines. L’Ovx a provoqué une accumulation de TG dans le foie, mais pas la diète HF seule. Cependant, lorsque l’Ovx était combinée à la diète HF, l’accumulation des TG était beaucoup plus importante comparé à ce qui était observé chez les rates Ovx soumises à la diète normale. L’expression génique (ARNm) de CPT1 (Carnitine palmitoyltransferase 1), PGC1α (Peroxisome proliferator-activated receptor gamma, coactivator 1) et PPARα (Peroxysome proliferetor activated receptor alpha) intervenant dans l’oxydation des acides gras dans le foie était augmentée par la diète HF (p ˂ 0.001; p ˂ 0.01; p ˂ 0.05 respectivement) ; mais atténuée (p ˂ 0.05; p ˂ 0.05; p ˂ 0.07 respectivement) lorsque les rates ont été Ovx, favorisant ainsi l’accumulation des TG dans le foie. La combinaison de la diète HF à l’Ovx a également provoqué une hypercholestérolémie et une accumulation de cholestérol dans le foie malgré la diminution de l’expression de la HMGCoA-r (3-hydroxy-3-methylglutaryl-CoA reductase), enzyme clé de la synthèse du cholestérol. Ceci était associé à l’inhibition de l’expression génique de CYP7a1 (Cytochrome P450, family 7, subfamily a, polypeptide 1), suggérant une diminution de la synthèse des acides biliaires. Ayant constaté dans la première étude que l’Ovx élevait les niveaux de cholestérol hépatique et plasmatique, nous nous sommes fixés comme objectif dans la deuxième étude d’évaluer les effets de l’Ovx sur l’expression génique des transporteurs et enzymes responsables du métabolisme du cholestérol et des acides biliaires dans le foie et l’intestin, et de vérifier si l’exercice sur tapis roulant pouvait prévenir ou corriger les changements causés par l’Ovx. L’hypercholestérolémie constatée chez les rates Ovx comparativement aux Sham était accompagnée de la diminution de l’expression génique des récepteurs des LDL (R-LDL), des résidus de lipoprotéines (LRP1), de SREBP-2 (Sterol regulatory element binding protein 2) et de PCSK9 (Proprotein convertase subtilisin/kexin type 9) dans le foie, suggérant une défaillance dans la clairance des lipoprotéines plasmatiques. L’Ovx a aussi inhibé l’expression génique de la MTP (Microsomal triglyceride transfer protein) et stimulé celle de SR-B1 (Scavenger receptor class B, member 1); mais aucun changement n’a été observé avec CYP7a1. Ces changements moléculaires pourraient par conséquent favoriser l’accumulation de cholestérol dans le foie. L’exercice physique n’a pas corrigé les modifications causées par l’Ovx sur l’expression génique de ces molécules au niveau hépatique à l’exception de SREBP-2. Par contre, au niveau intestinal (iléum), l’exercice sur tapis roulant a inhibé l’expression génique des marqueurs moléculaires intervenant dans l’absorption des acides biliaires (OSTα/β, FXR, RXRα, Fgf15) et du cholestérol (LXRα, NCP1L1) au niveau de l’iléum chez les rates Sham entraînées. Ces adaptations pourraient prévenir le développement de l’hypercholestérolémie protégeant en partie contre la survenue de l’athérosclérose. Au vue des effets délétères (hypercholestérolémie et diminution de l’expression du R-LDL, PCSK9, LRP1, SREBP-2 et HMGCOA-r dans le foie) causés par l’Ovx sur le métabolisme du cholestérol constatés dans l’étude 2, la 3ième étude a été conçue pour évaluer l’efficacité de rosuvastatine (Ros) sur l’expression génique de ces marqueurs moléculaires chez les rates Ovx sédentaires ou soumises à l’entraînement volontaire. Ros a été administrée aux rates Ovx pendant 21 jours par voie sous-cutanée à la dose de 5mg/kg/j à partir de la 9ième semaine après l’Ovx. Ros n’a pas diminué la concentration plasmatique de LDL-C et de TC chez les rates Ovx. Par contre, Ros a stimulé (P ˂ 0.05) l’expression génique de PCSK9, SREBP-2, LRP1, HMGCoA-r et ACAT2 (Acyl-CoA cholesterol acyltransferase) mais pas significativement (P = 0.3) celle du R-LDL dans le foie des rates Ovx sédentaires et entraînées. Ros n’a pas réduit la concentration plasmatique de LDL-C probablement à cause de l’induction plus importante de PCSK9 par rapport au R-LDL. Cependant, la stimulation de LRP1 par Ros protège partiellement contre la survenue des maladies cardiovasculaires. En conclusion, les études de cette thèse indiquent que la baisse du niveau des œstrogènes entraîne des changements radicaux du métabolisme hépatique des TG et du cholestérol provoqués par des altérations de l’expression des gènes clés des voies métaboliques associées.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.