22 resultados para Tuning.
Resumo:
En lien avec l’augmentation constante de l’obésité, de plus en plus de personnes sont atteintes de résistance à l’insuline ou de diabète de type 2. Ce projet doctoral s’est surtout intéressé à l’une des conséquences majeures des pathologies cardiométaboliques, soit la dyslipidémie diabétique. À cet égard, les gens présentant une résistance à l’insuline ou un diabète de type 2 sont plus à risque de développer des perturbations lipidiques caractérisées essentiellement par des taux élevés de triglycérides et de LDL-cholestérol ainsi que de concentrations restreintes en HDL-cholestérol dans la circulation. Les risques de maladies cardiovasculaires sont ainsi plus élevés chez ces patients. Classiquement, trois organes sont connus pour développer l’insulino-résistance : le muscle, le tissu adipeux et le foie. Néanmoins, certaines évidences scientifiques commencent également à pointer du doigt l’intestin, un organe critique dans la régulation du métabolisme des lipides postprandiaux, et qui pourrait, conséquemment, avoir un impact important dans l’apparition de la dyslipidémie diabétique. De façon très intéressante, des peptides produits par l’intestin, notamment le GLP-1 (glucagon-like peptide-1), ont déjà démontré leur potentiel thérapeutique quant à l’amélioration du statut diabétique et leur rôle dans le métabolisme intestinal lipoprotéinique. Une autre évidence est apportée par la chirurgie bariatrique qui a un effet positif, durable et radical sur la perte pondérale, le contrôle métabolique et la réduction des comorbidités du diabète de type 2, suite à la dérivation bilio-intestinale. Les objectifs centraux du présent programme scientifique consistent donc à déterminer le rôle de l’intestin dans (i) l’homéostasie lipidique/lipoprotéinique en réponse à des concentrations élevées de glucose (à l’instar du diabète) et à des peptides gastro-intestinaux tels que le PYY (peptide YY); (ii) la coordination du métabolisme en disposant de l’AMPK (AMP-activated protein kinase) comme senseur incontournable permettant l’ajustement précis des besoins et disponibilités énergétiques cellulaires; et (iii) l’ajustement de sa capacité d’absorption des graisses alimentaires en fonction du gain ou de la perte de sa sensibilité à l’insuline démontrée dans les spécimens intestinaux humains prélevés durant la chirurgie bariatrique. Dans le but de confirmer le rôle de l’intestin dans la dyslipidémie diabétique, nous avons tout d’abord utilisé le modèle cellulaire intestinal Caco-2/15. Ces cellules ont permis de démontrer qu’en présence de hautes concentrations de glucose en basolatéral, telle qu’en condition diabétique, l’intestin absorbe davantage de cholestérol provenant de la lumière intestinale par l’intermédiaire du transporteur NPC1L1 (Niemann Pick C1-like 1). L’utilisation de l’ezetimibe, un inhibiteur du NPC1L1, a permis de contrecarrer cette augmentation de l’expression de NPC1L1 tout comme l’élévation de l’absorption du cholestérol, prouvant ainsi que le NPC1L1 est bel et bien responsable de cet effet. D’autre part, des travaux antérieurs avaient identifié certains indices quant à un rôle potentiel du peptide intestinal PYY au niveau du métabolisme des lipides intestinaux. Toutefois, aucune étude n’avait encore traité cet aspect systématiquement. Pour établir définitivement l’aptitude du PYY à moduler le transport et le métabolisme lipidique dans l’intestin, nous avons utilisé les cellules Caco-2/15. Notre étude a permis de constater que le PYY incubé du côté apical est capable de réduire significativement l’absorption du cholestérol et le transporteur NPC1L1. Puisque le rôle de l'AMPK dans l'intestin demeure inexploré, il est important non seulement de définir sa structure moléculaire, sa régulation et sa fonction dans le métabolisme des lipides, mais aussi d'examiner l'impact de l’insulino-résistance et du diabète de type 2 (DT2) sur son statut et son mode d’action gastro-intestinal. En employant les cellules Caco-2/15, nous avons été capables de montrer (i) la présence de toutes les sous-unités AMPK (α1/α2/β1/β2/γ1/γ2/γ3) avec une différence marquée dans leur abondance et une prédominance de l’AMPKα1 et la prévalence de l’hétérotrimère α1/β2/γ1; (ii) l’activation de l’AMPK par la metformine et l’AICAR, résultant ainsi en une phosphorylation accrue de l’enzyme acétylCoA carboxylase (ACC) et sans influence sur l'HMG-CoA réductase; (iii) la modulation négative de l’AMPK par le composé C et des concentrations de glucose élevées avec des répercussions sur la phosphorylation de l’ACC. D’autre part, l’administration de metformine au Psammomys obesus, un modèle animal de diabète et de syndrome métabolique, a conduit à (i) une régulation positive de l’AMPK intestinale (phosphorylation de l’AMPKα-Thr172); (ii) la réduction de l'activité ACC; (iii) l’augmentation de l’expression génique et protéique de CPT1, supportant une stimulation de la β-oxydation; (iv) une tendance à la hausse de la sensibilité à l'insuline représentée par l’induction de la phosphorylation d'Akt et l’inactivation de la phosphorylation de p38; et (v) l’abaissement de la formation des chylomicrons ce qui conduit à la diminution de la dyslipidémie diabétique. Ces données suggèrent que l'AMPK remplit des fonctions clés dans les processus métaboliques de l'intestin grêle. La preuve flagrante de l’implication de l’intestin dans les événements cardiométaboliques a été obtenue par l’examen des spécimens intestinaux obtenus de sujets obèses, suite à une chirurgie bariatrique. L’exploration intestinale nous a permis de constater chez ceux avec un indice HOMA élevé (marqueur d’insulinorésistance) (i) des défauts de signalisation de l'insuline comme en témoigne la phosphorylation réduite d'Akt et la phosphorylation élevée de p38 MAPK; (ii) la présence du stress oxydatif et de marqueurs de l'inflammation; (iii) la stimulation de la lipogenèse et de la production des lipoprotéines riches en triglycérides avec l’implication des protéines clés FABP, MTP et apo B-48. En conclusion, l'intestin grêle peut être classé comme un tissu insulino-sensible et répondant à plusieurs stimuli nutritionnels et hormonaux. Son dérèglement peut être déclenché par le stress oxydatif et l'inflammation, ce qui conduit à l'amplification de la lipogenèse et la synthèse des lipoprotéines, contribuant ainsi à la dyslipidémie athérogène chez les patients atteints du syndrome métabolique et de diabète de type 2.
Resumo:
Les polymères sensibles à des stimuli ont été largement étudiés ces dernières années notamment en vue d’applications biomédicales. Ceux-ci ont la capacité de changer leurs propriétés de solubilité face à des variations de pH ou de température. Le but de cette thèse concerne la synthèse et l’étude de nouveaux diblocs composés de deux copolymères aléatoires. Les polymères ont été obtenus par polymérisation radicalaire contrôlée du type RAFT (reversible addition-fragmentation chain-transfer). Les polymères à bloc sont formés de monomères de méthacrylates et/ou d’acrylamides dont les polymères sont reconnus comme thermosensibles et sensible au pH. Premièrement, les copolymères à bloc aléatoires du type AnBm-b-ApBq ont été synthétisés à partir de N-n-propylacrylamide (nPA) et de N-ethylacrylamide (EA), respectivement A et B, par polymérisation RAFT. La cinétique de copolymérisation des poly(nPAx-co-EA1-x)-block-poly(nPAy-co-EA1-y) et leur composition ont été étudiées afin de caractériser et évaluer les propriétés physico-chimiques des copolymères à bloc aléatoires avec un faible indice de polydispersité . Leurs caractères thermosensibles ont été étudiés en solution aqueuse par spectroscopie UV-Vis, turbidimétrie et analyse de la diffusion dynamique de la lumière (DLS). Les points de trouble (CP) observés des blocs individuels et des copolymères formés démontrent des phases de transitions bien définies lors de la chauffe. Un grand nombre de macromolécules naturels démontrent des réponses aux stimuli externes tels que le pH et la température. Aussi, un troisième monomère, 2-diethylaminoethyl methacrylate (DEAEMA), a été ajouté à la synthèse pour former des copolymères à bloc , sous la forme AnBm-b-ApCq , et qui offre une double réponse (pH et température), modulable en solution. Ce type de polymère, aux multiples stimuli, de la forme poly(nPAx-co-DEAEMA1-x)-block-poly(nPAy-co-EA1-y), a lui aussi été synthétisé par polymérisation RAFT. Les résultats indiquent des copolymères à bloc aléatoires aux propriétés physico-chimiques différentes des premiers diblocs, notamment leur solubilité face aux variations de pH et de température. Enfin, le changement d’hydrophobie des copolymères a été étudié en faisant varier la longueur des séquences des blocs. Il est reconnu que la longueur relative des blocs affecte les mécanismes d’agrégation d’un copolymère amphiphile. Ainsi avec différents stimuli de pH et/ou de température, les expériences effectuées sur des copolymères à blocaléatoires de différentes longueurs montrent des comportements d’agrégation intéressants, évoluant sous différentes formes micellaires, d’agrégats et de vésicules.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Thèse réalisée en cotutelle avec l'Université catholique de Louvain.
Resumo:
La microscopie par fluorescence de cellules vivantes produit de grandes quantités de données. Ces données sont composées d’une grande diversité au niveau de la forme des objets d’intérêts et possèdent un ratio signaux/bruit très bas. Pour concevoir un pipeline d’algorithmes efficaces en traitement d’image de microscopie par fluorescence, il est important d’avoir une segmentation robuste et fiable étant donné que celle-ci constitue l’étape initiale du traitement d’image. Dans ce mémoire, je présente MinSeg, un algorithme de segmentation d’image de microscopie par fluorescence qui fait peu d’assomptions sur l’image et utilise des propriétés statistiques pour distinguer le signal par rapport au bruit. MinSeg ne fait pas d’assomption sur la taille ou la forme des objets contenus dans l’image. Par ce fait, il est donc applicable sur une grande variété d’images. Je présente aussi une suite d’algorithmes pour la quantification de petits complexes dans des expériences de microscopie par fluorescence de molécules simples utilisant l’algorithme de segmentation MinSeg. Cette suite d’algorithmes a été utilisée pour la quantification d’une protéine nommée CENP-A qui est une variante de l’histone H3. Par cette technique, nous avons trouvé que CENP-A est principalement présente sous forme de dimère.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.