41 resultados para HERV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neuroblastome (NB) représente 8% de tous les cancers pédiatriques et est caractérisé par sa grande hétérogénéité clinique. Afin d’évaluer son pronostic, plusieurs facteurs génétiques sont utilisés : amplification de MYCN, délétion 1p, gain 11q et gain 17q. Les buts de notre travail étaient d’abord de vérifier si l’hybridation in situ en fluorescence (FISH) permet une analyse complète de ces anomalies et ensuite, en utilisant une analyse globale du génome telle le polymorphisme nucléotidique simple (SNP), de vérifier la concordance avec les résultats de la FISH et le pronostic potentiel des anomalies du 14q, en particulier du gène AKT. Nous avons donc établi un panel de sondes pour la FISH qui a été appliqué sur 16 tumeurs non-fixées. Après isolation de l’ADN de 36 tumeurs, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 » contenant 945,826 sondes non polymorphiques et 906,000 sondes polymorphiques. Nos résultats ont démontré que la FISH permet l’évaluation complète des anomalies génétiques importantes du NB et que les anomalies déséquilibrées sont détectées très précisément par SNP. Les anomalies du 14q tendent à être associées avec des facteurs cliniques comme le grade et l’évolution, contrairement aux anomalies d’AKT. L’analyse du 14q a révélé trois gènes d’intérêt, MAX, BCL11B et GPHN, qui devraient être analysés sur un plus grand échantillon. Ainsi, l’étude par FISH semble adaptée pour détecter les anomalies génétiques classiques du NB, alors que celles retrouvées en 14q représentent de potentielles cibles thérapeutiques pour cette tumeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transferts horizontaux de gènes (THG) ont été démontrés pour jouer un rôle important dans l'évolution des procaryotes. Leur impact a été le sujet de débats intenses, ceux-ci allant même jusqu'à l'abandon de l'arbre des espèces. Selon certaines études, un signal historique dominant est présent chez les procaryotes, puisque les transmissions horizontales stables et fonctionnelles semblent beaucoup plus rares que les transmissions verticales (des dizaines contre des milliards). Cependant, l'effet cumulatif des THG est non-négligeable et peut potentiellement affecter l'inférence phylogénétique. Conséquemment, la plupart des chercheurs basent leurs inférences phylogénétiques sur un faible nombre de gènes rarement transférés, comme les protéines ribosomales. Ceux-ci n'accordent cependant pas autant d'importance au modèle d'évolution utilisé, même s'il a été démontré que celui-ci est important lorsqu'il est question de résoudre certaines divergences entre ancêtres d'espèces, comme pour les animaux par exemple. Dans ce mémoire, nous avons utilisé des simulations et analyser des jeux de données d'Archées afin d'étudier l'impact relatif des THG ainsi que l'impact des modèles d'évolution sur la précision phylogénétique. Nos simulations prouvent que (1) les THG ont un impact limité sur les phylogénies, considérant un taux de transferts réaliste et que (2) l'approche super-matrice est plus précise que l'approche super-arbre. Nous avons également observé que les modèles complexes expliquent non seulement mieux les données que les modèles standards, mais peuvent avoir un impact direct sur différents groupes phylogénétiques et sur la robustesse de l'arbre obtenu. Nos résultats contredisent une publication récente proposant que les Thaumarchaeota apparaissent à la base de l'arbre des Archées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente et mortelle chez les jeunes enfants. Il se caractérise par une résistance à la chimiothérapie possiblement en partie dû à la présence de cellules initiatrices de tumeurs (TICs). Des études ont mis en évidence le rôle de CD133 comme un marqueur des TICs dans divers types de cancers. Les buts de notre travail étaient d’abord de démontrer les vertus de TICs des cellules exprimant CD133 et ensuite, en utilisant une analyse globale du génome avec des polymorphismes nucléotidiques simples (SNPs), d’effectuer une analyse différentielle entre les TICs et les autres cellules du NB afin d’en identifier les anomalies génétiques spécifiques. Des lignées cellulaires de NB ont été triées par cytométrie de flux afin d’obtenir deux populations: une enrichie en CD133 (CD133high), l’autre faible en CD133 (CD133low). Afin de déterminer si ces populations cellulaires présentent des propriétés de TICs, des essais sur les neurosphères, les colonies en agar mou et les injections orthotopiques de 500 cellules sélectionnées dans 11 souris ont été réalisées. Après une isolation de l’ADN des populations sélectionnées, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 ». Pour vérifier l’expression des gènes identifiés, des Western Blots ont été réalisés. Nos résultats ont démontré que la population CD133 avait des propriétés de TICs in vitro et in vivo. L’analyse génotypique différentielle a permis d’identifier deux régions communes (16p13.3 and 19p13.3) dans la population CD133high ayant des gains et deux autres régions (16q12.1 and 21q21.3) dans la population CD133low possédant des pertes d’hétérozygoties (LOH). Aucune perte n’a été observée. Parmi les gènes étudiés, l’expression protéique d’éphrine-A2 était corrélée à celle de CD133 dans 6 tumeurs et 2 lignées cellulaires de NB. De plus, l’augmentation de la concentration d’anticorps anti-éphrine-A2 dans le milieu diminue la taille des neurosphères. Ainsi, la population CD133high, qui a des vertus de TICs, possède des caractéristiques génotypiques différentes par rapport à celle CD133low. La présence d’éphrine-A2 dans les cellules exprimant CD133 souligne son importance dans le développement des TICs. Ces résultats suggèrent la présence de potentielle cible pour de nouvelles thérapeutiques ciblant les TICs mise en évidence par l’étude génomique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université catholique de Louvain

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous envisageons le cas d'une ressource naturelle renouvelable exploitée en commun par des firmes qui se concurrencent à la fois dans le marché du produit et dans l'exploitation de la ressource. Nous montrons que l'introduction de la moindre différence de coûts entre les firmes peut avoir un effet drastique sur la nature de l' équilibre, à comparer avec le cas de coûts identiques. Pour ce faire, nous prenons comme point de référence un équilibre de Nash markovien parfait qui existe dans le cas de firmes identiques et qui a la propriété que les firmes jouent une stratégie linéaire jusqu'à une borne supérieure endogène du stock et la stratégie correspondant à l' équilibre de Cournot statique au-delà de cette borne. Après avoir montré qu'un équilibre de cette nature n'est pas soutenable avec des coûts asymétriques, nous proposons une caractérisation complète d'un équilibre de Nash markovien parfait au jeu différentiel correspondant à ce cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neuroblastome (NB) est la tumeur solide extracranienne la plus fréquente chez le jeune enfant. En dépit de plusieurs avancements thérapeutiques, seulement 60% survivront à long terme. Cette résistance aux traitements est possiblement due, en partie, à la présence des cellules souches cancéreuses (CSC). PARP-1 joue un rôle important dans la chimiorésistance de certaines tumeurs et son inhibition a montré une potentialisation des agents anticancéreux conventionnels. De plus, Bcl-2 est surexprimé dans le NB et son expression accrue contribuerait à la résistance à la chimiothérapie. Le but de notre travail était de déterminer les effets in vitro d’un PARP inhibiteur, AG-014699 (AG), et d’un inhibiteur de Bcl-2, Obatoclax (Obx), in vitro et in vivo, en monothérapie ou en combinaison avec de la Doxorubicine (Doxo) ou du Cisplatin (Cis), deux agents anticancéreux classiquement utilisés dans le traitement du NB. Afin de déterminer l’expression de PARP-1 dans les tumeurs de NB, nous avons analysé une cohorte de 132 tumeurs. Nous avons utilisé le test MTT afin d’évaluer la sensibilité de 6 lignées cellulaires de NB et des CSC à un traitement avec AG seul ou en combinaison avec de la Doxo ou du Cis. Nous avons déterminé l’étendue de la mort cellulaire par Annexin-V et caractérisé les dommages à l’ADN à l’aide d’un marquage γH2aX. De plus, les modulations des voies de signalisation intracellulaire ont été analysées par Western Blot. La sensibilité des cellules à l’Obx a été analysée par MTT sur 6 lignées cellulaires de NB et sa combinaison avec le Cis a également été déterminée dans 2 lignées cellulaires. Le marquage Annexin-V et des combinaisons avec ZVAD-FMK ont aussi été utilisés pour caractériser les effets d’Obx sur l’apoptose. Des expériences in vivo ont également été faites. Nos résultats démontrent que l’expression de PARP-1 est associée aux tumeurs moins agressives. AG n’a peu ou pas effet sur la croissance tumorale et ne potentialise pas significativement les effets de la Doxo ou de Cis. AG combiné à la Doxo semble sensibiliser les CSC dans une lignée cellulaire. L’Annexin-V et le marquage γH2aX ne révèlent pas d’effets synergiques de cette combinaison et les dommages à l’ADN et la mort cellulaire observés sont attribués à la Doxo. Cependant, on observe une augmentation d’apoptose et de bris d’ADN dans une lignée cellulaire (SK-N-FI) lorsqu’AG est utilisé en monothérapie. On observe une surexpression de pAKT et pERK suite à la combinaison Doxo et AG. Les cellules de NB sont sensibles à l’Obx à des concentrations à l’échelle nanomolaire. De plus, Obx active la mort cellulaire par apoptose. Aussi, Obx a un effet synergique avec le Cis in vitro. In vivo, l’Obx diminue significativement la taille tumorale. Nous concluons que l’Obx présente une avenue thérapeutique prometteuse dans le traitement du NB alors que l’utilisation d’AG ne semble pas être aussi encourageante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire entend mettre en lumière la solution au problème du mal développée par Philippe le Chancelier dans la Summa de bono (1225-1228). À cet effet, notre analyse se polarise sur la notion du mal qui occupe à la fois le système des transcendantaux et la division du bien créé découlant du principe du souverain bien. La somme est bâtie d’après la primauté de la notion du bien transcendantal, et fut rédigée par opposition avec la doctrine manichéenne des Cathares, en vogue au XIIIe siècle, qui s’appuyait sur la prééminence de deux principes métaphysiques causant le bien et le mal, d’où devaient procéder toutes les choses de la Création. Ceci explique que nous ayons privilégié de seulement examiner les notions du bien et du mal en un sens général, car c’est au stade universel de l’ontologie du bien que l’auteur défait la possibilité du mal de nature, en amont des ramifications du bien créé, déployées, à l’envi, dans les questions de la somme où les réponses sont assignées à des problèmes spécifiques. Nous offrons ici, pour la première fois, une traduction en français d’une série de questions ayant permis de mener à bien ce projet.