941 resultados para CONDITIONAL HETEROSKEDASTICITY
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.
Resumo:
La maladie de Crohn (MC) pédiatrique a des conséquences majeures sur la qualité de vie des patients atteints (troubles de croissance, absentéisme scolaire, etc). L’étiologie de la MC est inconnue. La théorie de l’hygiène (TH) stipule que les conditions de vie sanitaires des pays industrialisés préviennent l’exposition antigénique et empêchent le développement de la tolérance immunitaire chez les enfants. Ceci mènerait à une réaction excessive du système immunitaire lors d’expositions subséquentes et engendrerait le développement de maladies inflammatoires chroniques telles la MC. Objectif: Analyser l’association entre la fréquence, la temporalité et le type d’infections infantiles (indicateurs d’environnements pourvus d’antigènes) et le risque de MC pédiatrique. Une étude cas-témoin fût réalisée, les cas de MC provenant d’un centre hospitalier tertiaire montréalais. Les témoins, provenant des registres de la Régie d’assurance maladie du Québec (RAMQ), furent appariés aux cas selon leur âge, sexe et lieu de résidence. L’exposition aux infections fût déterminée grâce aux codes de diagnostic ICD-9 inscrits dans la base de données de la RAMQ. Un modèle de régression logistique conditionnelle fût construit afin d’analyser l’association entre infections et MC. Des ratios de cotes (RC) et intervalles de confiance à 95% (IC 95%) furent calculés. Résultats: 409 cas et 1621 témoins furent recrutés. Les résultats de l’analyse suggèrent un effet protecteur des infections infantiles sur le risque de MC (RC: 0,67 [IC: 0,48-0,93], p=0,018), plus particulièrement au cours des 5 premières années de vie (RC: 0.74 [IC: 0,57-0,96], p=0,025). Les infections rénales et urinaires, ainsi que les infections des voies orales et du système nerveux central (virale), semblent particulièrement associées à l’effet protecteur. Les résultats de l’étude appuient la théorie de l’hygiène: l’exposition aux infections infantiles pourrait réduire le risque de MC pédiatrique.
Resumo:
Le récepteur nucléaire Nr5a2, également connu sous le nom de liver receptor homolog-1 (Lrh-1), est exprimé au niveau de l’ovaire chez la souris, exclusivement dans les cellules lutéales et de la granulosa. La perturbation de Nr5a2, spécifique aux cellules de la granulosa chez la souris à partir des follicules primaires dans la trajectoire du développement folliculaire a démontré que Nr5a2 est un régulateur clé de l’ovulation et de la fertilité chez la femelle. Notre hypothèse veut que Nr5a2 régule les évènements péri- et post-ovulatoires dans une séquence temporelle lors de la folliculogénèse. Afin d'étudier l’implication de Nr5a2 lors de l’ovulation et de la lutéinisation à différents stades du développement folliculaire, nous avons généré deux modèles de souris knockout spécifiques aux cellules de la granulosa pour Nr5a2: 1) Nr5a2Amhr2-/-, avec une réduction de Nr5a2 à partir des follicules primaires et subséquents; 2) Nr5a2Cyp19-/-, avec une réduction de Nr5a2 débutant au stade antral de développement en progressant. L’absence de Nr5a2 à partir des follicules antraux a résulté en une infertilité chez les femelles Nr5a2Cyp19-/-, de même qu’en des structures non-fonctionnelles similaires aux structures lutéales au niveau des ovaires, en une réduction des niveaux de progestérone synthétisée ainsi qu’en un échec dans le support d’une pseudo-gestation. La synthèse de progestérone a été entravée suite à l’absence de Nr5a2 par l’entremise d’une régulation à la baisse des gènes reliés au transport du cholestérol, Scarb1, StAR et Ldlr, démontré par qPCR. Les complexes cumulus-oocytes des femelles Nr5a2Cyp19-/- immatures super-stimulées ont subi une expansion in vivo, mais l’ovulation a été perturbée, possiblement par une régulation à la baisse du gène du récepteur de la progestérone (Pgr). Un essai d’expansion du cumulus in vitro a démontré une expansion défectueuse du cumulus chez les Nr5a2Amhr2-/-, associée à un dérèglement de la protéine des jonctions communicantes (Gja1; Cx43). Cependant, l’expansion du cumulus chez les Nr5a2Cyp19-/- n’a pas été autant affectée. Des résultats obtenus par qPCR ont démontré une régulation à la baisse dans l’expression des gènes Areg, Ereg, Btc et Tnfaip6 chez les deux modèles de cellules ovariennes knockout à 2h et 4h post hCG. Nous avons observé que 85% des oocytes, chez les deux génotypes mutants, peuvent subir une rupture de la vésicule germinative, confirmant leur capacité de maturation in vivo. La technique d’injection intra-cytoplasmique de spermatozoïdes a prouvé que les oocytes des deux génotypes mutants sont fertilisables et que 70% des embryons résultants ont poursuivi leur développement vers le stade de blastocyste, et ce, indépendamment du génotype. En conclusion, Nr5a2 régule la fertilité chez les femelles tout au long du processus du développement folliculaire. Il a été démontré que Nr5a2 est essentiel à la lutéinisation et que sa perturbation dans les cellules somatiques ovariennes ne compromet pas la capacité des oocytes à être fertilisés. En vue d’ensemble, nous avons fourni une investigation inédite et complète, utilisant de multiples modèles et techniques afin de déterminer les mécanismes par lesquels Nr5a2 régule les importants processus que sont l’expansion du cumulus, l’ovulation ainsi que la formation du corps jaune.
Resumo:
Eph kinases are the largest family of cell surface receptor tyrosine kinases. The ligands of Ephs, ephrins (EFNs), are also cell surface molecules. Ephs interact with EFNs and the receptors and ligands transmit signals in both directions, i.e., from Ephs to EFNs and from EFNs to Ephs. Ephs and EFNs are widely involved in various developmental, physiological pathophysiological processes. Our group and others have reported the roles of Ephs/EFNs in the immune system. To further investigate the function of EphBs/EFNBs in T cell development and responses, we generated EFNB1, EFNB2, EphB4 conditional gene knockout (KO) mice and EFNB1/2 double KO mice. In the projects using EFNB1 and EFNB2 knockout mice, we specifically deleted EFNB1 or EFNB2 in T cells. The mice had normal size and cellularity of the thymus and spleen as well as normal T cell subpopulations in these organs. The bone marrow progenitors from KO mice and WT mice repopulated the host lymphoid organs to similar extents. The activation and proliferation of KO T cells was comparable to that of control mice. Naïve KO CD4 cells differentiated into Th1, Th2, Th17 and Treg cells similar to naïve control CD4 cells. In EFNB2 KO mice, we observed a significant relative increase of CD4CD8 double negative thymocytes in the thymus. Flowcytometry analysis revealed that there was a moderate increase in the DN3 subpopulation in the thymus. This suggests that EFNB2 is involved in thymocyte development. Our results indicate that the functions of EFNB1 and EFNB2 in the T cell compartment could be compensated by each other or by other members of the EFN family, and that such redundancy safeguards the pivotal roles of EFNB1 and EFNB2 in T cell development and function. In the project using EFNB1/B2 double knockout (dKO) model, we revealed a novel regulatory function of EFNb1 and EFNb2 in stabilizing IL-7Rα expression on the T cell surface. IL-7 plays important roles in thymocyte development, T cell homeostasis and survival. IL-7Rα undergoes internalization upon IL-7 binding. In the dKO mice, we observed reduced IL-7Rα expression in thymocytes and T cells. Moreover, the IL-7Rα internalization was accelerated in dKO CD4 cells upon IL-7 stimulation. In T cell lymphoma cell line, EL4, over-expression of either EFNB1 or EFNB2 retarded the internalization of IL-7Rα. We further demonstrated compromised IL-7 signaling and homeostatic proliferation of dKO T cells. Mechanism study using fluorescence resonance energy transfer and immunoprecipitation demonstrated that physical interaction of EFNB1 and EFNB2 with IL-7Rα was likely responsible for the retarded IL-7Rα internalization. In the last project, using medullary thymic epithelial cell (mTEC)-specific EphB4 knockout mice, we investigated T cell development and function after EphB4 deletion in mTEC. EphB4 KO mice demonstrated normal thymic weight and cellularity. T cell development and function were not influenced by the EphB4 deletion. Lastly, the KO mice developed normal delayed type hypersensitivity. Overall, our results suggest that comprehensive cross interaction between Eph and EFN family members could compensate function of a given deleted member in the T cell development, and only simultaneous deletion of multiple EFNBs will reveal their true function in the immune system. In fact, such redundancy signifies vital roles of Ephs and EFNs in the immune system.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Le surenroulement de l’ADN est important pour tous les processus cellulaires qui requièrent la séparation des brins de l’ADN. Il est régulé par l’activité enzymatique des topoisomérases. La gyrase (gyrA et gyrB) utilise l’ATP pour introduire des supertours négatifs dans l’ADN, alors que la topoisomérase I (topA) et la topoisomérase IV (parC et parE) les éliminent. Les cellules déficientes pour la topoisomérase I sont viables si elles ont des mutations compensatoires dans un des gènes codant pour une sous-unité de la gyrase. Ces mutations réduisent le niveau de surenroulement négatif du chromosome et permettent la croissance bactérienne. Une de ces mutations engendre la production d'une gyrase thermosensible. L’activité de surenroulement de la gyrase en absence de la topoisomérase I cause l’accumulation d’ADN hyper-surenroulé négativement à cause de la formation de R-loops. La surproduction de la RNase HI (rnhA), une enzyme qui dégrade l’ARN des R-loops, permet de prévenir l’accumulation d’un excès de surenroulement négatif. En absence de RNase HI, des R-loops sont aussi formés et peuvent être utilisés pour déclencher la réplication de l’ADN indépendamment du système normal oriC/DnaA, un phénomène connu sous le nom de « constitutive stable DNA replication » (cSDR). Pour mieux comprendre le lien entre la formation de R-loops et l’excès de surenroulement négatif, nous avons construit un mutant conditionnel topA rnhA gyrB(Ts) avec l’expression inductible de la RNase HI à partir d’un plasmide. Nous avons trouvé que l’ADN des cellules de ce mutant était excessivement relâché au lieu d'être hypersurenroulé négativement en conditions de pénurie de RNase HI. La relaxation de l’ADN a été montrée comme étant indépendante de l'activité de la topoisomérase IV. Les cellules du triple mutant topA rnhA gyrB(Ts) forment de très longs filaments remplis d’ADN, montrant ainsi un défaut de ségrégation des chromosomes. La surproduction de la topoisomérase III (topB), une enzyme qui peut effectuer la décaténation de l’ADN, a corrigé les problèmes de ségrégation sans toutefois restaurer le niveau de surenroulement de l’ADN. Nous avons constaté que des extraits protéiques du mutant topA rnhA gyrB(Ts) pouvaient inhiber l’activité de surenroulement négatif de la gyrase dans des extraits d’une souche sauvage, suggérant ainsi que la pénurie de RNase HI avait déclenché une réponse cellulaire d’inhibition de cette activité de la gyrase. De plus, des expériences in vivo et in vitro ont montré qu’en absence de RNase HI, l’activité ATP-dépendante de surenroulement négatif de la gyrase était inhibée, alors que l’activité ATP-indépendante de cette enzyme demeurait intacte. Des suppresseurs extragéniques du défaut de croissance du triple mutant topA rnhA gyrB(Ts) qui corrigent également les problèmes de surenroulement et de ségrégation des chromosomes ont pour la plupart été cartographiés dans des gènes impliqués dans la réplication de l’ADN, le métabolisme des R-loops, ou la formation de fimbriae. La deuxième partie de ce projet avait pour but de comprendre les rôles des topoisomérases de type IA (topoisomérase I et topoisomérase III) dans la ségrégation et la stabilité du génome de Escherichia coli. Pour étudier ces rôles, nous avons utilisé des approches de génétique combinées avec la cytométrie en flux, l’analyse de type Western blot et la microscopie. Nous avons constaté que le phénotype Par- et les défauts de ségrégation des chromosomes d’un mutant gyrB(Ts) avaient été corrigés en inactivant topA, mais uniquement en présence du gène topB. En outre, nous avons démontré que la surproduction de la topoisomérase III pouvait corriger le phénotype Par- du mutant gyrB(Ts) sans toutefois corriger les défauts de croissance de ce dernier. La surproduction de topoisomérase IV, enzyme responsable de la décaténation des chromosomes chez E. coli, ne pouvait pas remplacer la topoisomérase III. Nos résultats suggèrent que les topoisomérases de type IA jouent un rôle important dans la ségrégation des chromosomes lorsque la gyrase est inefficace. Pour étudier le rôle des topoisomérases de type IA dans la stabilité du génome, la troisième partie du projet, nous avons utilisé des approches génétiques combinées avec des tests de « spot » et la microscopie. Nous avons constaté que les cellules déficientes en topoisomérase I avaient des défauts de ségrégation de chromosomes et de croissance liés à un excès de surenroulement négatif, et que ces défauts pouvaient être corrigés en inactivant recQ, recA ou par la surproduction de la topoisomérase III. Le suppresseur extragénique oriC15::aph isolé dans la première partie du projet pouvait également corriger ces problèmes. Les cellules déficientes en topoisomérases de type IA formaient des très longs filaments remplis d’ADN d’apparence diffuse et réparti inégalement dans la cellule. Ces phénotypes pouvaient être partiellement corrigés par la surproduction de la RNase HI ou en inactivant recA, ou encore par des suppresseurs isolés dans la première partie du projet et impliques dans le cSDR (dnaT18::aph et rne59::aph). Donc, dans E. coli, les topoisomérases de type IA jouent un rôle dans la stabilité du génome en inhibant la réplication inappropriée à partir de oriC et de R-loops, et en empêchant les défauts de ségrégation liés à la recombinaison RecA-dépendante, par leur action avec RecQ. Les travaux rapportés ici révèlent que la réplication inappropriée et dérégulée est une source majeure de l’instabilité génomique. Empêcher la réplication inappropriée permet la ségrégation des chromosomes et le maintien d’un génome stable. La RNase HI et les topoisomérases de type IA jouent un rôle majeur dans la prévention de la réplication inappropriée. La RNase HI réalise cette tâche en modulant l’activité de surenroulement ATP-dependante de la gyrase, et en empêchant la réplication à partir des R-loops. Les topoisomérases de type IA assurent le maintien de la stabilité du génome en empêchant la réplication inappropriée à partir de oriC et des R-loops et en agissant avec RecQ pour résoudre des intermédiaires de recombinaison RecA-dépendants afin de permettre la ségrégation des chromosomes.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Thèse par articles.
Resumo:
La leptine circule en proportion de la masse graisseuse du corps et la transduction de son signal à travers la forme longue de son récepteur via un certain nombre de voies neurales , y compris MAPK, PI3-K ,AMPK et JAK2 - STAT3 . Il faut noter que STAT3 constitue une voie clée au récepteur de la leptine par laquelle la leptine module l'expression des gènes impliqués dans la régulation du bilan énergétique. La plupart des recherches ont porté sur la fonction du récepteur de la leptine au sein de l' hypothalamus, en particulier la fonction du récepteur de la leptine dans le noyau arqué. Toutefois, les récepteurs de la leptine sont également exprimés sur les neurones dopaminergiques de l'aire tégmentale ventrale et la leptine agit sur cette région du cerveau pour influencer la prise alimentaire, la motivation, la locomotion, l'anxiété et la transmission de la dopamine. De plus, la leptine active la STAT3 dans les dopaminergiques et GABAergiques populations neuronales. Bien que ces résultats contribuent à notre compréhension des multiples actions de la leptine dans le système nerveux central, il reste à résoudre les cellules et la signalisation du récepteur de la leptine qui sont responsables des effets neurocomportementaux de la leptine dans le mésencéphale. Visant à déterminer la contribution de la voie de signalisation STAT3 dans les neurones dopaminergiques du mésencéphale, nous avons généré une lignée de souris knockout conditionnel dans lequel l'activation du gène de STAT3 sur son résidu tyrosine 705 ( Tyr 705 ) est absent spécifiquement dans les neurones dopaminergiques. Avec l'utilisation de ce modèle de souris génétique, nous avons évalué l'impact de l'ablation de la signalisation STAT3 dans les neurones dopaminergiques sur un certain nombre de fonctions liées à la dopamine, y compris l'alimentation, la locomotion, les comportements liés à la récompense, l'émotion et la libération de dopamine dans le noyau accumbens. Fait intéressant, nous avons observé un dimorphisme sexuel dans le phénotype des souris STAT3DAT-KO. L'activation de la voie de signalisation STAT3 dans les neurones dopaminergiques est responsable de l'action de la leptine dans la réduction de la locomotion, récompense liée à l'activité physique, et de l'augmentation de la libération et de la disponibilité de la dopamine chez les souris mâles. Cependant, il ne module pas le comportement émotionnel. D'autre part, les souris femelles STAT3DAT-KO augmentent les niveaux d'anxiété et les niveaux plasmatiques de corticostérone, sans provoquer de changements de la dépression. Cependant, la perte d'activation de STAT3 dans les neurones dopaminergiques ne module pas le comportement locomoteur chez les souris femelles. Notamment, les actions de la leptine dans le mésencéphale pour influencer le comportement alimentaire ne sont pas médiées par l'activation de STAT3 dans les neurones dopaminergiques, considérant que les souris mâles et femelles ont un comportement alimentaire normal. Nos résultats démontrent que la voie de signalisation STAT3 dans les neurones dopaminergiques est responsable des effets anxiolytiques de la leptine, et soutient l'hypothèse que la leptine communique l'état d'énergie du corps (i.e. la relation entre la dépense et les apports énergétiques) pour les régions mésolimbiques pour atténuer les effets de motivation et de récompense de plusieurs comportements qui servent à réhabiliter ou à épuiser les réserves d'énergie. En outre, ce travail souligne l'importance d'étudier la modulation de la signalisation de la leptine dans différente types de cellules, afin d'identifier les voies de signalisation et les mécanismes cellulaires impliqués dans les différentes fonctions neuro-comportementales de la leptine.
Resumo:
La majorité des études qui ont examiné les effets respiratoires d’une exposition de courte durée à la pollution de l’air ont été réalisées en milieu urbain. En milieu pollué par des sources industrielles, la nature de l’exposition diffère de celle en milieu urbain. Le premier objectif de ce mémoire visait une recension des études traitant de l’association entre les effets respiratoires chez l’enfant et l’exposition aux émissions de polluants industriels. La majorité des études suggèrent que l’exposition aux émissions de polluants émis par des industries est associée à un accroissement des problèmes respiratoires. Dans ces études, l’effet de l’exposition de courte durée a rarement été étudié. L’autre objectif du mémoire était d’évaluer l’association entre une exposition journalière aux émissions de pollution atmosphérique d’un complexe industriel (deux fonderies et une usine de raffinage de l’alumine) du Saguenay, Québec, et les hospitalisations pour problèmes respiratoires des enfants de 0 à 4 ans vivant près de celles-ci (<7.5 km), à l’aide d’une étude épidémiologique de type cas-croisé. Le pourcentage d’heures où le domicile de l’enfant était sous les vents provenant de la direction du complexe industriel et les maxima et moyennes journalières des concentrations de dioxyde de soufre (SO2) et de particules fines (PM2.5) ont été recueillis du 1er janvier 2001 au 31 décembre 2010 afin d’estimer l’exposition. Des régressions logistiques conditionnelles ont été employées pour estimer les rapports de cotes (OR) et les intervalles de confiance à 95%. Les hospitalisations pour asthme et bronchiolite chez les jeunes enfants étaient associées à l’augmentation de l’exposition journalière aux émissions, estimée par le pourcentage d’heures sous les vents. Les résultats de ce mémoire suggèrent que l’exposition aux émissions industrielles de polluants de l’air est associée à des effets respiratoires chez les enfants.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Des travaux récents démontrent que certains neurones dopaminergiques du mésencéphale ont la capacité de libérer du glutamate en plus de la dopamine (DA). Ce phénomène de « co-transmission » requiert l’expression du transporteur vésiculaire du glutamate de type 2 (VGLUT2) dans les neurones dopaminergiques. Certaines observations montrent que l’expression de VGLUT2 dans les neurones dopaminergiques survient tôt durant leur développement et est essentiellement limitée aux neurones de l’aire tegmentaire ventrale (VTA). De plus, cette libération de glutamate se retrouve principalement au niveau des terminaisons de ces neurones dans le striatum ventral, mais pas dans le striatum dorsal. Ces données suggèrent d’une part un rôle développemental possible du glutamate dans les neurones dopaminergiques, et d’autre part, que les signaux dérivés des neurones cibles puissent réguler le double phénotype des neurones dopaminergiques menant ainsi à une plasticité phénotypique. Par ailleurs, il est toujours inconnu si cette libération de glutamate se fait à partir des terminaisons qui relâchent la DA ou à partir de terminaisons axonales distinctes. De plus, le rôle physiologique de ce surprenant phénomène de co-transmission reste également inconnu. Ainsi, dans cette étude, nous avons d’abord démontré in vitro et in vivo que l’expression de VGLUT2 est nécessaire pour la survie et la croissance d’une sous-population de neurones dopaminergiques. En utilisant une lignée de souris ayant une délétion génique spécifique de VGLUT2 dans les neurones dopaminergiques, nous avons observé une diminution du nombre de terminaisons dopaminergiques et glutamatergiques dans le striatum, une baisse de libération de DA dans le striatum ventral, une diminution de la coordination motrice ainsi qu’une diminution de l’activité locomotrice induite par les drogues d’abus. D’autre part, nous avons démontré in vitro et in vivo que les neurones dopaminergiques au double phénotype établissent des terminaisons distinctes afin de relâcher le glutamate et la DA. De plus, nous démontrons que ce phénomène de ségrégation des sites de libération semble être induit par une interaction avec les neurones du striatum ventral. Ces travaux démontrent le rôle physiologique déterminant de la co-transmission DA-glutamate pour l’homéostasie du système DAergique et dévoile une caractéristique fondamentale de l’établissement des terminaisons axonales de ces neurones. Ces travaux permettent ainsi de mieux comprendre les rôles physiologiques de la co-libération de glutamate par les neurones du système nerveux central et présentent une nouvelle perspective sur les dysfonctions potentielles de ces neurones dans les maladies du cerveau.
Resumo:
Cette étude aborde la problématique de la participation des personnes morales de droit public à l’arbitrage à l’occasion des litiges relatifs aux relations qu’elles entretiennent avec les personnes privées étrangères. Par opportunisme économique, un certain nombre de pays développés et en développement se montrent tout à fait favorables à ce que l’État se soumette au contentieux arbitral. Dans d’autres pays, tels qu’en Amérique latine et dans le monde arabe, il se manifeste des tendances nettement hostiles gravitant entre l’interdiction totale et une adhésion conditionnelle de l’État à l’arbitrage. Deux écoles s’affrontent, celle des privatistes qui considèrent l’arbitre international comme le juge naturel du milieu des affaires, face à celle des étatistes qui postulent que les juridictions étatiques demeurent les seules habiles à connaitre souverainement des litiges opposants les personnes publiques à leur interlocuteur privé. Les raisons qui sous-tendent l’assouplissement de certains gouvernements vers un élan libéral de l’arbitrage en droit public, résultent du phénomène globalisant de l’économie qui tend à réduire à néant les règles internes des États dans le cadre du nouvel ordre économique mondial. Par contre, les conséquences sociales, financières et juridiques des sentences arbitrales portent certains gouvernements à adopter une position réfractaire à l’arbitrage mettant en cause les entités publiques. Ils brandissent le droit à l’autodétermination des peuples pour éviter le bradage de leurs ressources au détriment des droits économiques, sociaux et culturels de leurs populations, et ce, en dépit du fait que l’investissement direct étranger joue un rôle considérable dans le développement des pays en émergence. Notre défi ultime dans ce travail est d’explorer les diverses avenues permettant d’atteindre un juste équilibre entre les intérêts publics et la protection des investissements privés. Ceci exige un changement de paradigme qui prendra en compte les dimensions plurielles que constitue le contentieux investisseurs-États.
Resumo:
Au Canada, les Commissions d'Examen des Troubles Mentaux de chaque province ont la responsabilité de déterminer les conditions de prise en charge des personnes déclarées Non Criminellement Responsables pour cause de Troubles Mentaux (NCRTM) et de rendre, sur une base annuelle une des trois décisions suivantes: a) détention dans un hôpital, b) libération conditionnelle, ou c) libération absolue. Pour favoriser la réinsertion sociale, la libération conditionnelle peut être ordonnée avec la condition de vivre dans une ressource d’hébergement dans la communauté. Parmi les personnes vivant avec une maladie mentale, l’accès aux ressources d’hébergement a été associé à une plus grande stabilité résidentielle, une réduction de nombre et de la durée de séjours d'hospitalisation ainsi qu’une réduction des contacts avec le système judiciaire. Toutefois, l’accès aux ressources d’hébergement pour les personnes trouvées NCRTM est limité, en partie lié à la stigmatisation qui entoure cette population. Il existe peu d’études qui traitent du placement en ressources d’hébergement en psychiatrie légale. Pour répondre à cette question, cette thèse comporte trois volets qui seront présentés dans le cadre de deux manuscrits: 1) évaluer le rôle du placement en ressources d’hébergement sur la réhospitalisation et la récidive chez les personnes trouvées NCRTM; 2) décrire les trajectoires de disposition et de placement en ressources d’hébergement, et 3) mieux comprendre les facteurs associés à ces trajectoires. Les données de la province du Québec du Projet National de Trajectoires d’individus trouvés NCRTM ont été utilisées. Un total de 934 personnes trouvées NCRTM entre le 1er mai 2000 et le 30 avril 2005 compose cet échantillon. Dans le premier manuscrit, l’analyse de survie démontre que les individus placés dans un logement indépendant suite à une libération conditionnelle de la Commission d’Examen sont plus susceptibles de commettre une nouvelle infraction et d’être ré-hospitalisés que les personnes en ressources d’hébergement. Dans le deuxième article, l'analyse de données séquentielle a généré quatre modèles statistiquement stables de trajectoires de disposition et de placement résidentiel pour les 36 mois suivant un verdict de NCRTM: 1) libération conditionnelle dans une ressource d’hébergement (11%), 2) libération conditionnelle dans un logement autonome (32%), 3) détention (43%), et 4) libération absolue (14%). Une régression logistique multinomiale révèle que la probabilité d'un placement en ressource supervisée comparé au maintien en détention est significativement réduite pour les personnes traitées dans un hôpital spécialisé en psychiatrie légale, ainsi que pour ceux ayant commis un délit sévère. D'autre part, la probabilité d’être soumis à des dispositions moins restrictives (soit le logement indépendant et la libération absolue) est fortement associée à des facteurs cliniques tels qu’un nombre réduit d'hospitalisations psychiatriques antérieures, un diagnostic de trouble de l'humeur et une absence de diagnostic de trouble de la personnalité. Les résultats de ce projet doctoral soulignent la valeur protectrice des ressources en hébergement pour les personnes trouvées NCRTM, en plus d’apporter des arguments solides pour une gestion de risque chez les personnes trouvées NCRTM qui incorpore des éléments contextuels de prévention du risque, tel que l’accès à des ressources d’hébergement.