21 resultados para Linear Attention,Conditional Language Model,Natural Language Generation,FLAX,Rare diseases
em Université de Montréal, Canada
Resumo:
Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases.
Resumo:
Site web associé au mémoire: http://daou.st/JSreal
Resumo:
In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. The conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. The inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios.
Resumo:
In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. the conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. the inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
L’objectif de cette thèse est l’étude du développement de l’attention auditive et des capacités de discrimination langagière chez l’enfant né prématurément ou à terme. Les derniers mois de grossesse sont particulièrement importants pour le développement cérébral de l’enfant et les conséquences d’une naissance prématurée sur le développement peuvent être considérables. Les enfants nés prématurément sont plus à risque de développer une variété de troubles neurodéveloppementaux que les enfants nés à terme. Même en l’absence de dommages cérébraux visibles, de nombreux enfants nés avant terme sont à risque de présenter des troubles tels que des retards langagiers ou des difficultés attentionnelles. Dans cette thèse, nous proposons donc une méthode d’investigation des processus préattentionnels auditifs et de discrimination langagière, à l’aide de l’électrophysiologie à haute densité et des potentiels évoqués auditifs (PEAs). Deux études ont été réalisées. La première visait à mettre sur pied un protocole d’évaluation de l’attention auditive et de la discrimination langagière chez l’enfant en santé, couvrant différents stades de développement (3 à 7 ans, 8 à 13 ans, adultes ; N = 40). Pour ce faire, nous avons analysé la composante de Mismatch Negativity (MMN) évoquée par la présentation de sons verbaux (syllabes /Ba/ et /Da/) et non verbaux (tons synthétisés, Ba : 1578 Hz/2800 Hz ; Da : 1788 Hz/2932 Hz). Les résultats ont révélé des patrons d’activation distincts en fonction de l’âge et du type de stimulus présenté. Chez tous les groupes d’âge, la présentation des stimuli non verbaux a évoqué une MMN de plus grande amplitude et de latence plus rapide que la présentation des stimuli verbaux. De plus, en réponse aux stimuli verbaux, les deux groupes d’enfants (3 à 7 ans, 8 à 13 ans) ont démontré une MMN de latence plus tardive que celle mesurée dans le groupe d’adultes. En revanche, en réponse aux stimuli non verbaux, seulement le groupe d’enfants de 3 à 7 ans a démontré une MMN de latence plus tardive que le groupe d’adulte. Les processus de discrimination verbaux semblent donc se développer plus tardivement dans l’enfance que les processus de discrimination non verbaux. Dans la deuxième étude, nous visions à d’identifier les marqueurs prédictifs de déficits attentionnels et langagiers pouvant découler d’une naissance prématurée à l’aide des PEAs et de la MMN. Nous avons utilisé le même protocole auprès de 74 enfants âgés de 3, 12 et 36 mois, nés prématurément (avant 34 semaines de gestation) ou nés à terme (au moins 37 semaines de gestation). Les résultats ont révélé que les enfants nés prématurément de tous les âges démontraient un délai significatif dans la latence de la réponse MMN et de la P150 par rapport aux enfants nés à terme lors de la présentation des sons verbaux. De plus, les latences plus tardives de la MMN et de la P150 étaient également corrélées à des performances langagières plus faibles lors d’une évaluation neurodéveloppementale. Toutefois, aucune différence n’a été observée entre les enfants nés à terme ou prématurément lors de la discrimination des stimuli non verbaux, suggérant des capacités préattentionnelles auditives préservées chez les enfants prématurés. Dans l’ensemble, les résultats de cette thèse indiquent que les processus préattentionnels auditifs se développent plus tôt dans l'enfance que ceux associés à la discrimination langagière. Les réseaux neuronaux impliqués dans la discrimination verbale sont encore immatures à la fin de l'enfance. De plus, ceux-ci semblent être particulièrement vulnérables aux impacts physiologiques liés à la prématurité. L’utilisation des PEAs et de la MMN en réponse aux stimuli verbaux en bas âge peut fournir des marqueurs prédictifs des difficultés langagières fréquemment observées chez l’enfant prématuré.
Resumo:
L’objectif de ce papier est de déterminer les facteurs susceptibles d’expliquer les faillites bancaires au sein de l’Union économique et monétaire ouest-africaine (UEMOA) entre 1980 et 1995. Utilisant le modèle logit conditionnel sur des données en panel, nos résultats montrent que les variables qui affectent positivement la probabilité de faire faillite des banques sont : i) le niveau d’endettement auprès de la banque centrale; ii) un faible niveau de comptes disponibles et à vue; iii) les portefeuilles d’effets commerciaux par rapport au total des crédits; iv) le faible montant des dépôts à terme de plus de 2 ans à 10 ans par rapport aux actifs totaux; et v) le ratio actifs liquides sur actifs totaux. En revanche, les variables qui contribuent positivement sur la vraisemblance de survie des banques sont les suivantes : i) le ratio capital sur actifs totaux; ii) les bénéfices nets par rapport aux actifs totaux; iii) le ratio crédit total sur actifs totaux; iv) les dépôts à terme à 2 ans par rapport aux actifs totaux; et v) le niveau des engagements sous forme de cautions et avals par rapport aux actifs totaux. Les ratios portefeuilles d’effets commerciaux et actifs liquides par rapport aux actifs totaux sont les variables qui expliquent la faillite des banques commerciales, alors que ce sont les dépôts à terme de plus de 2 ans à 10 ans qui sont à l’origine des faillites des banques de développement. Ces faillites ont été considérablement réduites par la création en 1989 de la commission de réglementation bancaire régionale. Dans l’UEMOA, seule la variable affectée au Sénégal semble contribuer positivement sur la probabilité de faire faillite.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
L’hypertension artérielle est le facteur de risque le plus important dans les maladies cardiovasculaires (MCV) et les accidents vasculaires cérébraux (AVC). L’hypertension artérielle essentielle est une maladie complexe, multifactorielle et polygénique. Même si on a identifié de nombreux facteurs de risque de l’hypertension artérielle, on ne comprend pas encore clairement les mécanismes qui la régissent. Les kinases hépatocytes produisant l’érythropoïétine (Eph) constituent la plus grande famille des récepteurs tyrosine kinase qui se lient à des ligands de surface cellulaire appelés éphrines sur les cellules avoisinantes. On sait que les interactions de Eph et des éphrines sont essentielles aussi bien dans les processus de développement que dans le fonctionnement des organes et des tissus adultes. Cependant on n’a pas encore étudié la relation entre Eph/éphrines et l’hypertension artérielle. Nous avons créé des modèles de souris knockout (K.O.) Ephb6-/-, Efnb1-/- et Efnb3-/- pour cette étude. Dans le modèle EphB6-/-, nous avons observé que les souris K.O. Ephb6 castrées, mais pas les femelles, ainsi que les souris mâles non castrées présentaient une tension artérielle élevée (TA) par rapport à leurs homologues de type sauvage (TS). Ceci suggère que Ephb6 doit agir de concert avec l’hormone sexuelle mâle pour réguler la TA. Les petites artères des mâles castrés Ephb6-/- présentaient une augmentation de la contractilité, une activation de RhoA et une phosphorylation constitutive de la chaîne légère de la myosine (CLM) lorsque comparées à celles de leurs homologues TS. Ces deux derniers résultats indiquent que la phosphorylation de CLM et de RhoA passe par la voie de signalisation de Ephb6 dans les cellules du muscle lisse de la paroi vasculaire (CMLV). Nous avons démontré que la réticulation de Efnbs mais non celle de Ephb6 aboutit à une réduction de la contractilité des CMLV. Ceci montre que l’effet de Ephb6 passe par la signalisation inversée à travers Efnb. Dans le modèle Efnb1-/- conditionnel spécifique au muscle lisse, nous n’avons observé aucune différence entre Efnb1-/- et les souris de TS concernant la mesure de la TA dans des conditions normales. Cependant, la TA des souris K.O. Efnb1 lors d’un stress d’immobilisation est supérieure à celle des souris de TS. Dans les petites artères des souris K.O. Efnb1, le rétrécissement et la phosphorylation de CLM étaient élevés. In vitro, la contractilité et l’activation RhoA de la CMLV des souris TS étaient augmentées quand leur Efnb1 était réticulé. Ces résultats corroborent ceux des souris KO Ephb6 et prouvent que l’effet de Ephb6 dans le contrôle de la TA se produit au moins par l’intermédiaire d’un de ses ligands Efnb1 dans les CMLV. Dans le modèle Efnb3-/-, on a observé une augmentation de la TA et du rétrécissement des vaisseaux chez les femelles Efnb3-/-, mais non chez les mâles; l’échographie a aussi révélé une résistance accrue au débit sanguin des souris K.O. femelles. Cependant la mutation de Efnb3 ne modifie pas la phosphorylation de la CLM ou l’activation de RhoA in vivo. Dans l’expérience in vitro, les CMLV des souris femelles Efnb3-/- ont présenté une augmentation de la contractilité mais pas celle des souris mâles Efnb3-/-. La réticulation des CMLV chez les mâles ou les femelles de TS avec solide anti-Efnb3 Ab peut réduire leur contractilité. Notre étude est la première à évaluer le rôle de Eph/éphrines dans la régulation de la TA. Elle montre que les signalisations Eph/éphrines sont impliquées dans le contrôle de la TA. La signalisation inverse est principalement responsable du phénotype élevé de la TA. Bien que les Efnb1, Efnb3 appartiennent à la même famille, leur fonction et leur efficacité dans la régulation de la TA pourraient être différentes. La découverte de Eph/Efnb nous permet d’explorer plus avant les mécanismes qui gouvernent la TA.
Resumo:
Si les principes d’utilisabilité guident la conception de solutions de design interactif pour s’assurer que celles-ci soient « utilisables », quels principes guident la conception d’objets interactifs pour s’assurer que l’expérience subjective de l’usager (UX) soit adéquate et mémorable? Que manque-t-il au cadre de l‘UX pour expliquer, comprendre, et anticiper en tant que designer une expérience mémorable (‘an experience’; Dewey, 1934)? La question centrale est issue d’une double problématique : (1) le cadre théorique de l’UX est incomplet, et (2) les processus et capacités des designers ne sont pas considérés et utilisés à leur pleine capacité en conception UX. Pour répondre à cette question, nous proposons de compléter les modèles de l’UX avec la notion d’expérience autotélique qui appartient principalement à deux cadres théoriques ayant bien cerné l’expérience subjective, soit l’expérience optimale (ou Flow) de Csikszentmihalyi (1988) et l’expérience esthétique selon Schaeffer (2001). L’autotélie est une dimension interne du Flow alors qu’elle couvre toute l’expérience esthétique. L’autotélie est une expérience d’éveil au moment même de l’interaction. Cette prise de conscience est accompagnée d’une imperceptible tension de vouloir faire durer ce moment pour faire durer le plaisir qu’il génère. Trois études exploratoires ont été faites, s’appuyant sur une analyse faite à partir d’un cadre théorique en trois parties : le Flow, les signes d’activité non verbale (les gestes physiques) et verbale (le discours) ont été évalués pour voir comment ceux-ci s’associent. Nos résultats tendent à prouver que les processus spatiaux jouent un rôle de premier plan dans l’expérience autotélique et par conséquent dans une UX optimale. De plus, ils suggèrent que les expériences pragmatique et autotélique sont ancrées dans un seul et même contenu, et que leur différence tient au type d’attention que le participant porte sur l’interaction, l’attention ordinaire ou de type autotélique. Ces résultats nous ont menés à proposer un modèle pour la conception UX. L’élément nouveau, resté jusqu’alors inaperçu, consiste à s’assurer que l’interface (au sens large) appelle une attitude réceptive à l’inattendu, pour qu’une information puisse déclencher les processus spatiaux, offrant une opportunité de passer de l’attention ordinaire à l’attention autotélique. Le nouveau modèle ouvre la porte à une meilleure valorisation des habiletés et processus du designer au sein de l’équipe multidisciplinaire en conception UX.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Thèse réalisée en cotutelle avec Dre Christine Des Rosiers
Resumo:
Le but de cette thèse est d'étudier les corrélats comportementaux et neuronaux du transfert inter-linguistique (TIL) dans l'apprentissage d’une langue seconde (L2). Compte tenu de nos connaissances sur l'influence de la distance linguistique sur le TIL (Paradis, 1987, 2004; Odlin, 1989, 2004, 2005; Gollan, 2005; Ringbom, 2007), nous avons examiné l'effet de facilitation de la similarité phonologique à l’aide de la résonance magnétique fonctionnelle entre des langues linguistiquement proches (espagnol-français) et des langues linguistiquement éloignées (persan-français). L'étude I rapporte les résultats obtenus pour des langues linguistiquement proches (espagnol-français), alors que l'étude II porte sur des langues linguistiquement éloignées (persan-français). Puis, les changements de connectivité fonctionnelle dans le réseau langagier (Price, 2010) et dans le réseau de contrôle supplémentaire impliqué dans le traitement d’une langue seconde (Abutalebi & Green, 2007) lors de l’apprentissage d’une langue linguistiquement éloignée (persan-français) sont rapportés dans l’étude III. Les résultats des analyses d’IRMF suivant le modèle linéaire général chez les bilingues de langues linguistiquement proches (français-espagnol) montrent que le traitement des mots phonologiquement similaires dans les deux langues (cognates et clangs) compte sur un réseau neuronal partagé par la langue maternelle (L1) et la L2, tandis que le traitement des mots phonologiquement éloignés (non-clang-non-cognates) active des structures impliquées dans le traitement de la mémoire de travail et d'attention. Toutefois, chez les personnes bilingues de L1-L2 linguistiquement éloignées (français-persan), même les mots phonologiquement similaires à travers les langues (cognates et clangs) activent des régions connues pour être impliquées dans l'attention et le contrôle cognitif. Par ailleurs, les mots phonologiquement éloignés (non-clang-non-cognates) activent des régions usuellement associées à la mémoire de travail et aux fonctions exécutives. Ainsi, le facteur de distance inter-linguistique entre L1 et L2 module la charge cognitive sur la base du degré de similarité phonologiques entres les items en L1 et L2. Des structures soutenant les processus impliqués dans le traitement exécutif sont recrutées afin de compenser pour des demandes cognitives. Lorsque la compétence linguistique en L2 augmente et que les tâches linguistiques exigent ainsi moins d’effort, la demande pour les ressources cognitives diminue. Tel que déjà rapporté (Majerus, et al, 2008; Prat, et al, 2007; Veroude, et al, 2010; Dodel, et al, 2005; Coynel, et al ., 2009), les résultats des analyses de connectivité fonctionnelle montrent qu’après l’entraînement la valeur d'intégration (connectivité fonctionnelle) diminue puisqu’il y a moins de circulation du flux d'information. Les résultats de cette recherche contribuent à une meilleure compréhension des aspects neurocognitifs et de plasticité cérébrale du TIL ainsi que l'impact de la distance linguistique dans l'apprentissage des langues. Ces résultats ont des implications dans les stratégies d'apprentissage d’une L2, les méthodes d’enseignement d’une L2 ainsi que le développement d'approches thérapeutiques chez des patients bilingues qui souffrent de troubles langagiers.
Resumo:
L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.