83 resultados para Inférence ancestrale
Resumo:
Les deux premiers romans de Michel Folco, Dieu et nous seuls pouvons (1991) et Un loup est un loup (1995), ont reçu un très bon accueil du public et de la presse, mais ont été pratiquement ignorés par la critique universitaire. Ces romans historiques méritent pourtant qu’on les étudie. Cet admirateur de Dumas propose des romans d’aventures d’inspiration historique, qui en apparence sont construits dans la plus pure tradition du genre. Or, les textes sont plus complexes qu’il n’y paraît : ils ont absorbé un intertexte fort et multiple, incorporé des fantasmatiques sociales inquiétantes, offrent une représentation originale du rapport entre l’être humain et la nature. Centrés autour des figures du bourreau et du loup, ils présentent un traitement singulier de ces symboles du mal et remettent en question la haine ancestrale dont ils sont l’objet. Dans un univers romanesque hanté par le motif de la vengeance, c’est l’ensemble de la société qui est représentée comme violente, intolérante et cruelle. La notion de mal est questionnée, redéfinie, déplacée. C’est ce déplacement qui est l’objet de ce mémoire, lequel se donne pour but de montrer comment les textes travaillent des récits historiques ainsi que des représentations mythiques et religieuses.
Resumo:
L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
La Critique de la raison pure est traversée de part en part par une analogie juridique dont l’étude peut enrichir la compréhension de l’œuvre. Il est ainsi question, dès la préface, d’une raison qui se juge elle-même devant son propre tribunal, ce qui constituera le point de départ de notre analyse. Or, ce tribunal très particulier doit se fonder sur une connaissance de soi approfondie de la raison. Cette entreprise est de fait réalisée au fil des développements de la Critique. Le rôle bien particulier joué à cet égard par les trois déductions présentes dans l’œuvre sera dûment examiné. On verra par ailleurs que la déduction doit elle-même être considérée plutôt comme procédure d’inspiration juridique que comme inférence, tout en conservant pourtant un statut de preuve philosophique. Les nombreuses allusions juridiques effectuées par Kant au fil de l’œuvre seront ainsi mises à profit dans le cadre de cette interprétation.
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
Le Teyyam est un rituel de possession hindouiste du Kerala (Inde du Sud) qui nécessite une pratique intransigeante : restrictions, jeûnes, exploits physiques, résistance à la chaleur du feu. Vêtus de costumes spectaculaires, des performeurs de caste intouchable dansent l’épée à la main, au son des tambours frénétiques, et font entendre la parole du dieu qu’ils incarnent; ils auront même le droit de critiquer le système des castes devant la communauté assemblée, le temps d’une inversion rituelle. Alors qu’autrefois il s’agissait d’un devoir de caste associé à une grande précarité, aujourd’hui il s’agit d’un métier que l’on peut choisir d’exercer ou non. Bien qu’on ait déploré un manque de relève à cause des conditions jugées trop difficiles, il y a toutefois de jeunes hommes qui ont décidé de poursuivre cette tradition ancestrale. Au Kerala, de nombreux jeunes aspirent à la classe moyenne et misent sur l’éducation pour espérer un bon emploi, il y a des opportunités, mais pas pour tous, et surtout beaucoup de compétition. C’est dans ce contexte que de jeunes hommes éduqués souhaitent poursuivre une tradition qu’ils admirent et dont ils sont fiers, mais sans avoir à sacrifier leurs chances de réussite sociale. Quelles sont leurs aspirations, quel sens donnent-ils à ce qu’ils souhaitent accomplir? Traditionnellement les relations de patronage dans le Teyyam ont été très dures sous le joug du système des castes, qu’en est-il aujourd’hui? Comment ces performeurs arrivent-il à négocier la réalisation de leurs aspirations dans les coulisses du Teyyam?
Resumo:
Cosa sappiamo del Genocidio? Cosa sappiamo del Rwanda? In che termini il giornalismo è elemento in comune di entrambi? La questione si fa più complicata in quanto vorremmo aggiungere a queste riflessioni il nodo della memoria. Che memoria abbiamo del Genocidio? Che memoria abbiamo del Rwanda? In che modo il giornalismo costruisce memoria? In questa tesi, abbiamo provato a rispondere a queste domande attraverso gli strumenti della semiotica del discorso e della cultura. Nella prima parte della ricerca abbiamo affrontato la nascita e l'affermazione della categoria di genocidio, l'invenzione e il Genocidio del Rwanda , indicando proposte per definire una possibile semiotica del genocidio. Nella seconda parte si è,invece, scesi nel particolare del discorso giornalistico, definendo i nodi teorici utili per mettere in luce i legami tra giornalismo e memoria e procedendo alle analisi della stampa italiana sul genocidio rwandese. Le conclusioni a cui si è giunti sono, rispetto alla costruzione giornalistica della realtà, che la stampa italiana ha ridotto quella complessità che ha caratterizzato ciò che abbiamo chiamato la biografia discorsiva del Rwanda. Questa stratificazione discorsiva viene risolta, o meglio, tradotta in enunciati che richiamano un odio tribale ancestrale, come se il Genocidio, laddove ne venisse descritta la pianificazione, non fosse altro che una conseguenza naturale di questo odio. Rispetto al rapporto tra memoria e giornalismo, abbiamo visto che è interrogabile rispetto alle dinamiche della cultura: si tratta, quindi, di considerare il ruolo di mediazione dei testi e la loro interpretazione. Ciò chiama in causa problemi di selezione e filtraggio, di inclusione ed esclusione, negoziazione di saperi condivisi, all’interno del problema più ampio della produzione del discorso e della cooperazione interpretativa.
Resumo:
Questo elaborato propone alcune riflessioni sulla necessità urgente di un nuovo paradigma educativo, mediante la re-organizzazione delle scienze della conoscenza, scienze in parole di Morin, “disgiunte e frazionate, inadeguate ad affrontare problemi che richiedono oggi approcci multidisciplinari”. La sfida: affrontare i nuovi problemi di una convivenza planetaria, attraverso le connessioni del pensiero ecologico, in questo studio asse centrale delle cosmovisioni e della Sapienza ancestrale dei Popoli di AbyaYala (America Latina). Popoli in cui la Vita come orizzonte di Armonia ed Equilibrio si concretizza in pratiche di Vita Quotidiana grazie ad una Pedagogia del BuenVivir, inclusiva e partecipativa, rispettosa della diversità biologica e delle differenze culturali, nonché della Sacralità della Terra e della Vita in tutte le sue manifestazioni. La cornice teorica considerata fa riferimento in modo particolare a: L’Ecologia della Mente (Bateson); Il problematicismo Pedagogico e l’Educazione alla Progettualità Esistenziale (G.M.Bertin, Contini); l’Ecologia dei Saperi e le Epistemologie del Sud (Boaventura di Sousa Santos, sociologo portoghese), in modo da tessere ponti di dialogo fra le diverse discipline, in particolare fra la pedagogia, la geografia, l’antropologia, la filosofia, la sociologia, la letteratura, il diritto e anche con le neuroscienze.
Étude du syncrétisme de l’assiko à travers le geste et le foyer socioculturel d’un guitariste Bassa.
Resumo:
Ce mémoire porte sur le rôle du geste musical dans le développement de styles musicaux devenus syncrétiques. Il s’attarde à définir dans le détail le style de guitare populaire assiko propre aux Bassa du Cameroun du Sud lequel est représenté internationalement par le guitariste et percussionniste traditionnel Atna Njock. Grâce à une approche dialogique et participative, les techniques du jeu assiko sont explorées et comparées à des exemples de jeu de guitare européenne, afro-américaines et africaines. Les influences qui définissent le jeu d’Atna découlent de la culture Bassa et de son histoire marquée par l’influence coloniale et missionnaire, mais sont aussi alimentées par la «philosophie» (voire la spiritualité) et le passé musical de l’artiste. L’approche participative fournit une perspective émique, c’est-à-dire interne à la culture, de la gestuelle et de la structure du jeu assiko même si nous confrontons les propos du musicien à notre propre regard analytique. La comparaison avec divers instruments de percussion auxquels Atna a été initié montre comment ceux-ci ont forgé son jeu guitaristique. Son rôle de « garant » de la tradition musicale Bassa influence son approche et se manifeste par une préoccupation particulière pour l’« authenticité » dans la reproduction des rythmes d’un « langage » musical donné. Ses liens avec la culture Bassa, s’expriment notamment par le biais de sa reproduction du style de jeu de son maître, Jean Bikoko « Aladin ». La contribution particulière d’Atna à la technique de guitare de Bikoko est comprise comme un ajout à la lignée ancestrale. Une analyse d’un morceau du répertoire assiko issu du plus récent album d’Atna illustre d’ailleurs comment son incorporation de styles « modernes » reproduit les processus traditionnels en intégrant des éléments culturels étrangers.
Resumo:
Ce mémoire porte sur le rôle du geste musical dans le développement de styles musicaux devenus syncrétiques. Il s’attarde à définir dans le détail le style de guitare populaire assiko propre aux Bassa du Cameroun du Sud lequel est représenté internationalement par le guitariste et percussionniste traditionnel Atna Njock. Grâce à une approche dialogique et participative, les techniques du jeu assiko sont explorées et comparées à des exemples de jeu de guitare européenne, afro-américaines et africaines. Les influences qui définissent le jeu d’Atna découlent de la culture Bassa et de son histoire marquée par l’influence coloniale et missionnaire, mais sont aussi alimentées par la «philosophie» (voire la spiritualité) et le passé musical de l’artiste. L’approche participative fournit une perspective émique, c’est-à-dire interne à la culture, de la gestuelle et de la structure du jeu assiko même si nous confrontons les propos du musicien à notre propre regard analytique. La comparaison avec divers instruments de percussion auxquels Atna a été initié montre comment ceux-ci ont forgé son jeu guitaristique. Son rôle de « garant » de la tradition musicale Bassa influence son approche et se manifeste par une préoccupation particulière pour l’« authenticité » dans la reproduction des rythmes d’un « langage » musical donné. Ses liens avec la culture Bassa, s’expriment notamment par le biais de sa reproduction du style de jeu de son maître, Jean Bikoko « Aladin ». La contribution particulière d’Atna à la technique de guitare de Bikoko est comprise comme un ajout à la lignée ancestrale. Une analyse d’un morceau du répertoire assiko issu du plus récent album d’Atna illustre d’ailleurs comment son incorporation de styles « modernes » reproduit les processus traditionnels en intégrant des éléments culturels étrangers.
Resumo:
La compréhension du discours, et son évolution au cours du vieillissement, constitue un sujet d’une grande importance par sa complexité et sa place dans la préservation de la qualité de vie des aînés. Les objectifs de cette thèse étaient d’évaluer l’influence du vieillissement et du niveau de scolarité sur les capacités de compréhension du discours et sur l’activité cérébrale s’y rattachant. Pour ce faire, trois groupes (jeunes adultes ayant un niveau universitaire de scolarité, personnes âgées ayant un niveau universitaire de scolarité et personnes âgées ayant un niveau secondaire de scolarité) ont réalisé une tâche où ils devaient lire de courtes histoires, puis estimer la véracité d’une affirmation concernant cette histoire. Les capacités de compréhension correspondant aux traitements de trois niveaux du modèle de construction-intégration de Kintsch (la microstructure, la macrostructure et le modèle de situation) ont été évaluées. L’imagerie optique (NIRS) a permis d’estimer les variations d’oxyhémoglobine (HbO) et de déoxyhémoglobine (HbR) tout au long de la tâche. Les résultats ont démontré que les personnes âgées étaient aussi aptes que les plus jeunes pour rappeler la macrostructure (essentiel du texte), mais qu’ils avaient plus de difficulté à rappeler la microstructure (détails) et le modèle de situation (inférence et intégration) suite à la lecture de courts textes. Lors de la lecture, les participants plus âgés ont également montré une plus grande activité cérébrale dans le cortex préfrontal dorsolatéral gauche, ce qui pourrait être un mécanisme de compensation tel que décrit dans le modèle CRUNCH. Aucune différence significative n’a été observée lors de la comparaison des participants âgés ayant un niveau universitaire de scolarité et ceux ayant un niveau secondaire, tant au niveau des capacités de compréhension que de l’activité cérébrale s’y rattachant. Les deux groupes ont cependant des habitudes de vie stimulant la cognition, entre autres, de bonnes habitudes de lecture. Ainsi, ces habitudes semblent avoir une plus grande influence que l’éducation sur les performances en compréhension et sur l’activité cérébrale sous-jacente. Il se pourrait donc que l’éducation influence la cognition en promouvant des habitudes favorisant les activités cognitives, et que ce soit ces habitudes qui aient en bout ligne un réel impact sur le vieillissement cognitif.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Sur des estimateurs et des tests non-paramétriques pour des distributions et copules conditionnelles
Resumo:
Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.