977 resultados para Risque lié à la volatilité


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Mali est devenu un milieu attractif pour les essais cliniques. Cependant, le cadre de réglementation pour leur surveillance y est très limité. Le pays manque de l’expertise, de l’infrastructure et des ressources nécessaires pour mettre en œuvre pleinement la régulation. Ceci représente un risque pour la sécurité des sujets de recherche et l’intégrité des résultats scientifiques. Il ne permet pas non plus de s’aligner sur les normes internationales en vigueur, telles que la déclaration d’Helsinki, les directives éthiques internationales du Conseil des organisations internationales des sciences médicales (CIOMS) ou les réglementations de pays industrialisés comme les États-Unis, le Canada ou l’Union Européenne. Pour améliorer la situation, la présente étude vise à comprendre les enjeux de la régulation des essais cliniques au Mali afin de suggérer des pistes de solutions et des recommandations. L’étude a été réalisée à l’aide de méthodes qualitatives, soit l’examen de documents officiels et des entrevues semi-dirigées avec les principaux acteurs impliqués dans les essais cliniques. La théorie néo-institutionnelle a servi de toile de fond à l’analyse des données. L’approche néo-institutionnelle consiste à expliquer l’influence de l’environnement sur les organisations. Selon cette approche, l’environnement s’assimile à des champs organisationnels incluant les connexions locales ou non, les liens horizontaux et verticaux, les influences culturelles et politiques ainsi que les échanges techniques. Les résultats présentés dans un premier article montrent l’existence de nombreux enjeux reflétant la carence du système de régulation au Mali. La coexistence de quatre scénarios d’approbation des essais cliniques illustre bien l’inconsistance des mécanismes. Tout comme l’absence d’inspection, l’inconsistance des mécanismes traduit également l’intervention limitée des pouvoirs publics dans la surveillance réglementaire. Ces enjeux résultent d’une double influence subie par les autorités réglementaires et les comités d’éthique. Ceux-ci sont, d’une part, influencés par l’environnement institutionnel sous pressions réglementaires, cognitives et normatives. D’autre part, les pouvoirs publics subissent l’influence des chercheurs qui opèrent comme des entrepreneurs institutionnels en occupant un rôle central dans le champ de la régulation. Dans un second article, l’étude propose une analyse détaillée des facteurs influençant la régulation des essais cliniques. Ces facteurs sont synthétisés en cinq groupes répartis entre deux sphères d’influence. L’analyse montre combien ces facteurs influencent négativement la régulation, notamment : 1) la structuration inachevée du champ de régulation due à un faible degré d’interactions, une absence de structure de coordination, d’informations mutuelles et de conscience dans la constitution des interdépendances; et 2) les positions relatives des acteurs impliqués dans la construction du champ de régulation se manifestant par une faible autorité des pouvoirs publics et l’ascendance des groupes de recherche. Enfin, dans un troisième article nous proposons quelques mécanismes qui, s’ils sont mis en œuvre, pourraient améliorer la régulation des essais cliniques au Mali. Ces mécanismes sont présentés, en référence au cadre théorique, sous trois types de vecteurs d’influence, notamment réglementaires, normatifs et cognitifs-culturels. En guise de conclusion, l’étude envoie un signal fort pour la nécessité d’une régulation appropriée des essais cliniques au Mali. Elle montre que la plupart des problèmes de fond en matière de régulation relèvent d’un besoin de restructuration du champ organisationnel et de renforcement de la position des pouvoirs publics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le développement de la compétence orthographique est particulièrement difficile pour les dyslexiques. Orthographier en français implique la prise en compte de connaissances et de stratégies variées. Cette étude a pour objectifs de décrire l’utilisation des stratégies de production orthographiques de 32 élèves dyslexiques (ED) âgés de 9 à 12 ans ainsi que d’établir les liens entre les stratégies orthographiques et la compétence orthographique. Les élèves devaient orthographier 24 mots sous dictée et commenter, pour chaque mot, les stratégies employées. Les performances des ED ont été comparées à celles de 25 normo scripteurs de même âge chronologique (CA) et à celles de 24 normo scripteurs de même compétence écrite (CE). Les résultats indiquent que les stratégies phonologiques sont les plus utilisées par tous les groupes de participants. Si aucun type de stratégies n’est lié à la compétence orthographique des ED, la stratégie visuo-orthographique nous éclaire sur les résultats des CA et des CE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent numéro spécial de Lex electronica publie les Actes du colloque « Qui gère le risque environnemental ? La prise en charge juridique du risque en Europe et au Canada » qui s’est déroulé les 29 et 30 septembre 2011, au Centre de recherche en droit public (CRDP) de la Faculté de droit de l’Université de Montréal. Dans leur avant propos, Hélène Trudeau et Jaceques Papy nous décrivent l'intérêt de la reprise de ces conférences dans cette publication estivale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Le sous-titre des Mélanges consacrés à Andrée Lajoie – Ledroit : une variable dépendante – n’est pas neutre : d’abord, parce qu’elle en est elle-même l’auteure ; ensuite, parce qu’elle a travaillé à traquer, dans la réalité phénoménale tout autant que discursive, toute prétention à la neutralité. Le concept de variable est intimement lié à la formulation d’une hypothèse dont on sait qu’elle se définit comme le pivot de l’élaboration d’un projet de recherche quand, une fois abreuvée d’un cadre théorique qui la surdétermine, elle bascule vers les efforts de démonstration et les stratégies de vérification appelés à l’infirmer définitivement ou à la confirmer toujours temporairement. Les variables, entre dimensions théoriques et indicateurs empiriques, obéissent à une structure interactionnelle dans une relation de causalité, de covariance, d’imputation, etc. Ces rapports soumettent l’observation à une dynamique présupposée entre des données inertes (variable indépendante) et des données mutantes (variable dépendante), souvent sous l’effet de facteurs de changements (variable intermédiaire). On parlera donc de variations impulsées par des combinaisons, des séquençages, des coordinations entre des concepts d’abord, puis entre des faits (incluant les faits discursifs) qui rendront compte plus adéquatement de la réalité et qui enrichiront les connaissances."

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : La force d’adhésion à l'interface métal-céramique avec les résines auto-polymérisantes destinées au collage indirect des boîtiers orthodontiques n'a pas été évaluée à ce jour et un protocole clinique basé sur la littérature scientifique est inexistant. Objectifs : 1) Comparer la force de cisaillement maximale entre des boîtiers métalliques et des surfaces en porcelaine préparées selon différentes méthodes; 2) Suggérer un protocole clinique efficace et prévisible. Matériel et méthodes : Quatre-vingt-dix disques en leucite (6 groupes; n = 15/groupe) ont été préparés selon 6 combinaisons de traitements de surface : mécaniques (+ / - fraisage pour créer les rugosités) et chimiques (acide fluorhydrique, apprêt, silane). Des bases en résine composite Transbond XT (3M Unitek, Monrovia, California) faites sur mesure ont été collées avec le système de résine adhésive auto-polymérisante Sondhi A + B Rapid Set (3M Unitek, Monrovia, California). Les échantillons ont été préservés (H2O/24hrs), thermocyclés (500 cycles) et testés en cisaillement (Instron, Norwood, Massachusetts). Des mesures d’Index d’adhésif résiduel (IAR) ont été compilées. Des tests ANOVAs ont été réalisés sur les rangs étant donné que les données suivaient une distribution anormale et ont été ajustés selon Tukey. Un Kruskall-Wallis, U-Mann Whitney par comparaison pairée et une analyse de Weibull ont aussi été réalisés. Résultats : Les médianes des groupes varient entre 17.0 MPa (- fraisage + acide fluorhydrique) à 26.7 MPa (- fraisage + acide fluorhydrique + silane). Le fraisage en surface ne semble pas affecter l’adhésion. La combinaison chimique (- fraisage + silane + apprêt) a démontré des forces de cisaillement significativement plus élevées que le traitement avec (- fraisage + acide fluorhydrique), p<0,05, tout en possédant des forces similaires au protocole typiquement suggéré à l’acide fluorhydrique suivi d’une application de silane, l’équivalence de (- fraisage + acide fluorhydrique + silane). Les mesures d’IAR sont significativement plus basses dans le groupe (- fraisage + acide fluorhydrique) en comparaison avec celles des 5 autres groupes, avec p<0,05. Malheureusement, ces 5 groupes ont des taux de fracture élévés de 80 à 100% suite à la décimentation des boîtiers. Conclusion : Toutes les combinaisons de traitement de surface testées offrent une force d’adhésion cliniquement suffisante pour accomplir les mouvements dentaires en orthodontie. Une application de silane suivie d’un apprêt est forte intéressante, car elle est simple à appliquer cliniquement tout en permettant une excellente adhésion. Il faut cependant avertir les patients qu’il y a un risque de fracture des restorations en céramique lorsque vient le moment d’enlever les broches. Si la priorité est de diminuer le risque d’endommager la porcelaine, un mordançage seul à l’acide hydrofluorique sera suffisant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tolérance immunitaire dépend de la distinction entre le soi et le non soi par le système immunitaire. Un bris dans la tolérance immunitaire mène à l'auto-immunité, qui peut provoquer la destruction des organes, des glandes, des articulations ou du système nerveux central. Le diabète auto-immun, également connu sous le nom diabète juvénile et diabète de type 1, résulte d'une attaque auto-immune sur les cellules β pancréatiques sécrétrices d’insuline, localisées au niveau des îlots de Langerhans du pancréas. Bien que le diabète auto-immun soit traitable par une combinaison d’injections quotidiennes d’insuline d’origine exogène, de régime et d'exercices, beaucoup de complications chroniques peuvent se manifester chez les patients, y compris, mais non limitées à, la cécité, les maladies cardiovasculaires, l’insuffisance rénale et l'amputation. En raison des nombreuses complications liées au diabète auto-immun à long terme, la recherche continue afin de mieux comprendre tous les facteurs impliqués dans la progression de la maladie dans le but de développer de nouvelles thérapies qui empêcheront, renverseront et/ou traiteront cette maladie. Un rôle primordial dans la génération et l'entretien de la tolérance immunitaire a été attribué au nombre et à la fonction des sous-populations de cellules régulatrices. Une de ces populations est constituée de cellules T CD4-CD8- (double négatives, DN), qui ont été étudiées chez la souris et l'humain pour leur contribution à la tolérance périphérique, à la prévention des maladies et pour leur potentiel associé à la thérapie cellulaire. En effet, les cellules de T DN sont d'intérêt thérapeutique parce qu'elles montrent un potentiel immunorégulateur antigène-spécifique dans divers cadres expérimentaux, y compris la prévention du diabète auto-immun. D’ailleurs, en utilisant un système transgénique, nous avons démontré que les souris prédisposées au diabète auto-immun présentent peu de cellules T DN, et que ce phénotype contribue à la susceptibilité au diabète auto-immun. En outre, un transfert des cellules T DN est suffisant pour empêcher la progression vers le diabète chez les souris prédisposées au diabète auto-immun. Ces résultats suggèrent que les cellules T DN puissent présenter un intérêt thérapeutique pour les patients diabétiques. Cependant, nous devons d'abord valider ces résultats en utilisant un modèle non-transgénique, qui est plus physiologiquement comparable à l'humain. L'objectif principal de cette thèse est de définir la fonction immunorégulatrice des cellules T DN, ainsi que le potentiel thérapeutique de celles-ci dans la prévention du diabète auto-immun chez un modèle non-transgénique. Dans cette thèse, on démontre que les souris résistantes au diabète auto-immun présentent une proportion et nombre absolu plus élevés de cellules T DN non-transgéniques, lorsque comparées aux souris susceptibles. Cela confirme une association entre le faible nombre de cellules T DN et la susceptibilité à la maladie. On observe que les cellules T DN éliminent les cellules B activées in vitro par une voie dépendante de la voie perforine et granzyme, où la fonction des cellules T DN est équivalente entre les souris résistantes et prédisposées au diabète auto-immun. Ces résultats confirment que l'association au diabète auto-immun est due à une insuffisance en terme du nombre de cellules T DN, plutôt qu’à une déficience fonctionnelle. On démontre que les cellules T DN non-transgéniques éliminent des cellules B chargées avec des antigènes d'îlots, mais pas des cellules B chargées avec un antigène non reconnu, in vitro. Par ailleurs, on établit que le transfert des cellules T DN activées peut empêcher le développement du diabète auto-immun dans un modèle de souris non-transgénique. De plus, nous observons que les cellules T DN migrent aux îlots pancréatiques, et subissent une activation et une prolifération préférentielles au niveau des ganglions pancréatiques. D'ailleurs, le transfert des cellules T DN entraîne une diminution d'auto-anticorps spécifiques de l'insuline et de cellules B de centres germinatifs directement dans les îlots, ce qui corrèle avec les résultats décrits ci-dessus. Les résultats présentés dans cette thèse permettent de démontrer la fonction des cellules T DN in vitro et in vivo, ainsi que leur potentiel lié à la thérapie cellulaire pour le diabète auto-immun.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre thèse de doctorat a pour but d’évaluer les contraintes psychosociales au travail et les symptômes dépressifs majeurs chez les femmes enceintes. Plus spécifiquement, il est question d’identifier les facteurs associés aux symptômes dépressifs majeurs, à une tension psychologique au travail ou travail "tendu" ("high-strain" job), à un travail "tendu" avec un faible soutien social au travail ("Iso-strain"), et enfin d’évaluer l’association entre ces contraintes psychosociales au travail et les symptômes dépressifs majeurs chez les femmes enceintes au travail. Les données analysées sont issues de l’Étude Montréalaise sur la Prématurité, une étude de cohorte prospective menée entre mai 1999 et avril 2004, auprès de 5 337 femmes enceintes interviewées à 24-26 semaines de grossesse dans quatre hôpitaux de l’île de Montréal (Québec, Canada). L’échelle CES-D (Center for Epidemiological Studies Depression Scale) a été utilisée pour mesurer les symptômes dépressifs majeurs (score CES-D ≥23). L’échelle abrégée de Karasek a été utilisée pour mesurer les contraintes psychosociales au travail. La présente étude a conduit à la rédaction de quatre articles scientifiques qui seront soumis à des revues avec comité de pairs. Le premier article a permis de comparer la prévalence des symptômes dépressifs majeurs dans différents sous-groupes de femmes enceintes : femmes au foyer, femmes au travail, femmes en arrêt de travail, femmes aux études et de rechercher les facteurs de risque associés aux symptômes dépressifs majeurs pendant la grossesse. À 24-26 semaines de grossesse, la prévalence des symptômes dépressifs majeurs était de 11,9% (11,0-12,8%) pour l’ensemble des femmes enceintes à l’étude (N=5 337). Les femmes enceintes au travail avaient une proportion de symptômes dépressifs moins élevée [7,6% (6,6-8,7%); n=2 514] par rapport aux femmes enceintes au foyer qui avaient les prévalences les plus élevées [19,1% (16,5-21,8%); n=893], suivi des femmes enceintes en arrêt de travail [14,4% (12,7-16,1%); n=1 665] et des femmes enceintes aux études [14,3% (10,3-19,1%); n=265]. Les caractéristiques personnelles (non professionnelles) associées aux symptômes dépressifs majeurs étaient, après ajustement pour toutes les variables, le statut d’emploi, un faible niveau d’éducation, un faible soutien social en dehors du travail, le fait d’avoir vécu des événements stressants aigus, d’avoir manqué d’argent pour les besoins essentiels, les difficultés relationnelles avec son partenaire, les problèmes de santé chronique, le pays de naissance et le tabagisme. Le deuxième article avait pour objectif de décrire l’exposition aux contraintes psychosociales au travail et d’identifier les facteurs qui y sont associés chez les femmes enceintes de la région de Montréal, au Québec (N=3 765). Au total, 24,4% des travailleuses enceintes se trouvaient dans la catégorie travail "tendu" ("high-strain" job) et 69,1% d’entre elles avaient eu un faible soutien social au travail ("Iso-strain"). Les facteurs de risque associés à un travail "tendu" étaient : un faible soutien social au travail, certains secteurs d’activité et niveaux de compétences, le fait de travailler plus de 35 heures par semaine, les horaires irréguliers, la posture de travail, le port de charges lourdes, le jeune âge des mères, une immigration ≥ 5 ans, un bas niveau d’éducation, la monoparentalité et un revenu annuel du ménage <50 000$. Le troisième article a évalué l’association entre les contraintes psychosociales au travail et les symptômes dépressifs majeurs chez les femmes enceintes au travail (N=3 765). Dans les analyses bivariées et multivariées, les femmes enceintes qui avaient un "high-strain job" ou un "Iso-strain" présentaient davantage de symptômes dépressifs majeurs que les autres sous-groupes. Les contraintes psychosociales au travail étaient associées aux symptômes dépressifs majeurs lorsqu’on prenait en compte les autres facteurs organisationnels et les facteurs personnels auxquels elles étaient confrontées à l’extérieur de leur milieu de travail. Notre étude confirme les évidences accumulées en référence aux modèles théoriques "demande-contrôle" et "demande-contrôle-soutien" de Karasek et Theorell. L’impact de ce dernier et le rôle crucial du soutien social au travail ont été mis en évidence chez les femmes enceintes au travail. Cependant, l’effet "buffer" du modèle "demande-contrôle-soutien" n’a pas été mis en évidence. Le quatrième article a permis d’évaluer l’exposition aux contraintes psychosociales au travail chez les femmes enceintes au travail et en arrêt de travail pour retrait préventif et de mesurer l’association entre les contraintes psychosociales au travail et les symptômes dépressifs majeurs en fonction du moment du retrait préventif (N=3 043). À 24-26 semaines de grossesse, les femmes enceintes en retrait préventif du travail (31,4%) avaient été plus exposées à un "high-strain job" (31,0% vs 21,1%) et à un "Iso-strain" (21,0% vs 14,2%) que celles qui continuaient de travailler (p<0,0001); et elles avaient des proportions plus élevées de symptômes dépressifs majeurs. Après ajustement pour les facteurs de risque personnels et professionnels, "l’Iso-strain" restait significativement associé aux symptômes dépressifs majeurs chez les femmes qui continuaient de travailler tout comme chez celles qui ont cessé de travailler, et cela quel que soit leur durée d’activité avant le retrait préventif du travail (4 à 12 semaines/ 13 à 20 semaines/ ≥ 21 semaines). Les contraintes psychosociales au travail représentent un important facteur de risque pour la santé mentale des travailleuses enceintes. Malgré l’application du programme "pour une maternité sans danger" il s’avère nécessaire de mettre en place dans les milieux de travail, des mesures de prévention, de dépistage et d’intervention afin de réduire la prévalence des symptômes dépressifs prénataux et l’exposition aux contraintes psychosociales au travail pour prévenir les complications maternelles et néonatales. D’autant plus que, la dépression prénatale est le principal facteur de risque de dépression postpartum, de même que les enfants nés de mères souffrant de dépression sont plus à risque de prématurité et de petit poids de naissance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cellules T CD8+ jouent un rôle primordial dans le contrôle des infections virales en limitant la dissémination des cellules infectées. Lors de l’infection chronique par le virus HIV, les cellules T CD8+ HIV-spécifiques ne se différencient pas en cellules effectrices fonctionnelles capables de tuer les cellules infectées par le virus ; ces cellules ne sont plus capables de proliférer ou de produire l’ IL-2. Ces cellules expriment PD-1 et l’engagement de PD-1, par son ligand, aboutit a plusieurs de ces déficits fonctionnels des cellules T . Le rôle de PD-1 dans la régulation d'évènements transcriptionnels contrôlant la différentiation et l'obtention des fonction effectrices des cellules T CD8+ reste à démontrer. Id2 joue un rôle central dans la différenciation des cellules T CD8+ effectrices. Nous avons émis l’hypothèse que le défaut de maturation observé chez les cellules T CD8+ PD-1 high HIV-spécifiques (CD8+PD-1hi) au cours de l’infection chronique par le virus HIV pouvait être lié à la diminution d’expression du régulateur Id2. Nous avons ainsi démontré que l'engagement de PD-1 contribuait à une diminution d'expression de Id2 et de ses cibles transcriptionnelles. La surexpression de Id2 de ces cellules a permis de restaurer l'expression de marqueurs tels que Granzyme B et Bcl-2 et diminuir l’expression du marqueur de maturation de CD27. La famille des cytokines à chaine gamma joue un rôle clef dans la survie et l’homéostasie des cellules T. Dans ce travail, nous avons démontré que l’IL-15 était unique grâce à ses capacités de stimulation de l’expression d’Id2 et ses propriétés favorisant la survie ainsi que la différenciation des cellules T CD8+ effectrices. l’IL-15 induit la prolifération de toutes les populations de cellules T mémoires provenant de donneurs sains. L’addition de cette cytokine aux sous-populations cellulaires Ttm et Tem a permis leur différenciation en cellules effectrices capables de produire Granzyme B alors que la stimulation par l’IL-15 des cellules Tcm ne favorise pas leur différenciation. Un test de cytotoxicitié par cytométrie en flux nous a permis de confirmer que la stimulation de cellules T CD8+ HIV spécifiques par l’IL-15 favorisait l’expression de Id2 et restaurait les fonctions cytotoxiques des cellules T CD8+ HIV spécifiques. En conclusion, nous avons pour la première fois dans cette thèse défini les mécanismes moléculaires impliqués dans la modulation de l’expression du régulateur transcriptionnel Id2 par l’IL-15. Nous avons également révélé comment l’engagement de PD-1 conduisait a une altération de l’expression et de la fonction d’Id2 et favorisait la diminution des fonctions effectrices des cellules T CD8-HIV spécifiques. Une perspective de traitement avec des agents tels que l’IL-15 ou le bloquage de PD-1, en combinaison avec les traitements conventionnels, pourrait contribuer à une meilleure stimulation des réponses immunes favorisant ainsi la réactivation des cellules T CD8+ et permettant la destruction de cellules T CD4+ infectées de manière latente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Vitamine K (VK) est largement reconnue pour son rôle dans la coagulation sanguine toutefois, de plus en plus de travaux indiquent son implication dans la fonction cérébrale. La VK est requise pour l'activation de différentes protéines, par exemple la protéine Gas6, et la ménaquinone-4 (MK-4), le principal vitamère K dans le cerveau, est impliquée dans le métabolisme des sphingolipides. Dans un rapport précédent, nous avons montré qu'un régime alimentaire faible en VK tout au long de la vie était associé à des déficits cognitifs chez des rats âgés. La warfarine sodique est un puissant antagoniste de la VK qui agit en bloquant le cycle de la VK, provoquant un «déficit relatif de VK » au niveau cellulaire. À la lumière du rôle émergent de la VK dans le cerveau, la warfarine pourrait représenter un facteur de risque pour la fonction cérébrale. Ce travail est donc pertinente en raison de la forte proportion d'adultes traîtés à la warfarine sodique. Dans la présente étude, 14 rats mâles Wistar ont été traités avec 14 mg de warfarine/kg /jour (dans l'eau potable) et des injections sous-cutanées de VK (85 mg/kg), 3x/sem, pendant 10 semaines. Quatorze rats témoins ont été traités avec de l'eau normale et injectés avec une solution saline. Les rats ont été soumis à différents tests comportementaux après quoi les niveaux de phylloquinone, MK-4, sphingolipides (cérébroside, sulfatide, sphingomyéline, céramide et gangliosides), et les sous-types de gangliosides (GT1b, GD1a, GM1, GD1b), ont été évalués dans différentes régions du cerveau. Comparativement aux rats du groupe contrôle, les rats traités à la warfarine présentaient des latences plus longues au test de la piscine de Morris (p <0,05) ainsi qu'une hypoactivité et un comportement exploratoire plus faible au test de « l’open field » (p <0,05). Le traitement par warfarine a également entraîné une diminution spectaculaire du niveau de MK-4 dans toutes les régions du cerveau (p <0,001), une altération des concentrations de sphingolipidiques, en particulier dans le cortex frontal et le mésencéphale (p <0,05), et une perte de différences régionales sphingolipidiques, notamment pour les gangliosides. Le traitement par warfarine a été associé à un niveau inférieur de GD1a dans l'hippocampe et un niveau supérieur de GT1b dans le cortex préfrontal et le striatum. En conclusion, la déficience en VK induite par warfarine altère les niveaux de VK et sphingolipides dans le cerveau, avec de potentiels effets néfastes sur les fonctions cérébrales.