993 resultados para Modèle numérique non linéaire
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
Ce texte propose des méthodes d’inférence exactes (tests et régions de confiance) sur des modèles de régression linéaires avec erreurs autocorrélées suivant un processus autorégressif d’ordre deux [AR(2)], qui peut être non stationnaire. L’approche proposée est une généralisation de celle décrite dans Dufour (1990) pour un modèle de régression avec erreurs AR(1) et comporte trois étapes. Premièrement, on construit une région de confiance exacte pour le vecteur des coefficients du processus autorégressif (φ). Cette région est obtenue par inversion de tests d’indépendance des erreurs sur une forme transformée du modèle contre des alternatives de dépendance aux délais un et deux. Deuxièmement, en exploitant la dualité entre tests et régions de confiance (inversion de tests), on détermine une région de confiance conjointe pour le vecteur φ et un vecteur d’intérêt M de combinaisons linéaires des coefficients de régression du modèle. Troisièmement, par une méthode de projection, on obtient des intervalles de confiance «marginaux» ainsi que des tests à bornes exacts pour les composantes de M. Ces méthodes sont appliquées à des modèles du stock de monnaie (M2) et du niveau des prix (indice implicite du PNB) américains
Resumo:
Rapport de recherche
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (L.L.M.) option Technologies de l'information"
Resumo:
Les voies de signalisation des MAP kinases (MAPK) conventionnelles jouent des rôles essentiels pendant le développement des lymphocytes T (LT) ainsi que lors de leur activation suite à la reconnaissance antigénique. En raison de ses différences structurelles ainsi que de son mode de régulation, ERK3 fait partie des MAPK dites non-conventionnelles. Encore aujourd’hui, les événements menant à l’activation de ERK3, ses substrats ou partenaires ainsi que sa fonction physiologique demeurent peu caractérisés. Nous avons entrepris dans cette thèse d’étudier le rôle de ERK3 lors du développement et de l’activation des LT en utilisant un modèle de souris déficient pour l’expression de ERK3. Nous avons premièrement établi que ERK3 est exprimée chez les thymocytes. Ensuite, nous avons évalué le développement thymique chez la souris ERK3-déficiente et nous avons observé une diminution significative de la cellularité aux étapes DN1, DP et SP CD4+ du développement des LT. La création de chimères hématopoïétiques ERK3-déficientes nous a permis de démontrer que la diminution du nombre de cellules observée aux étapes DN1 et DP est autonome aux thymocytes alors que le phénotype observé à l’étape SP CD4+ est dépendant de l’abolition simultanée de ERK3 dans l’épithélium thymique et dans les thymocytes. Une étude plus approfondie de l’étape DP nous a permis de démontrer qu’en absence de ERK3, les cellules DP meurent plus abondamment et accumulent des cassures doubles brins (DSB) dans leur ADN. De plus, nous avons démontré que ces cassures dans l’ADN sont réalisées par les enzymes RAG et qu’en absence de ces dernières, la cellularité thymique est presque rétablie chez la souris ERK3-déficiente. Ces résultats suggèrent que ERK3 est impliquée dans un mécanisme essentiel à la régulation des DSB pendant le réarrangement V(D)J de la chaîne du récepteur des cellules T (RCT). Dans le deuxième article présenté dans cette thèse, nous avons montré que ERK3 est exprimé chez les LT périphériques, mais seulement suite à leur activation via le RCT. Une fois activés in vitro les LT ERK3-déficients présentent une diminution marquée de leur prolifération et dans la production de cytokines. De plus, les LT ERK3-déficients survivent de façon équivalente aux LT normaux, mais étonnamment, ils expriment des niveaux plus faibles de la molécule anti-apoptotique Bcl-2. Ces résultats suggèrent que la prolifération réduite des LT ERK3-déficients est la conséquence d’une altération majeure de leur activation. Ainsi, nos résultats établissent que ERK3 est une MAPK qui joue des rôles essentiels et uniques dans le développement thymique et dans l’activation des lymphocytes T périphériques. Grâce à ces travaux, nous attribuons pour la toute première fois une fonction in vivo pour ERK3 au cours de deux différentes étapes de la vie d’un LT.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Les virus sont utilisés depuis longtemps dans la recherche sur le cancer et ont grandement contribué à l’avancement des connaissances de même qu’à l’établissement de préceptes importants encore valables aujourd’hui dans le domaine. L’un des défis actuels est de mieux définir les étapes menant à la transition d’une cellule normale à une cellule transformée et c’est sur cette problématique que nous nous sommes penchés. Pour ce faire, nous avons tiré profit de l’utilisation de l’antigène grand-T du virus de polyome (PyLT), un virus capable d’induire des tumeurs chez les rongeurs. Cet oncogène viral à lui seul possède des propriétés intéressantes qui suggèrent que, en plus de l’immortalisation, il peut également contribuer aux événements précoces de la carcinogénèse. Ceci repose principalement sur la capacité de PyLT à induire des tumeurs en souris transgéniques et ce, avec une certaine latence ce qui suggère que des événements supplémentaires sont nécessaires. Ainsi, l’utilisation de PyLT dans un modèle de culture cellulaire permet de disséquer les changements qui lui sont attribuables. Dans un premier temps, l’établissement du profil d'expression génique associé à l'expression de PyLT dans un modèle murin nous a permis de sélectionner un bon nombre de gènes, parmi lesquels figurait Necdin. Nous avons choisi d’étudier Necdin plus en détail puisque peu d’attention était accordée à cette protéine dans le domaine du cancer, malgré que différentes données de la littérature lui suggèrent à la fois des fonctions suppresseurs de tumeur et oncogéniques. Nous avons démontré que, malgré sa fonction proposée de suppresseur de croissance, l’expression de Necdin n’est pas incompatible avec la prolifération dans la lignée cellulaire de souris NIH 3T3 et les cellules primaires humaines (IMR90), bien que l’inhibition de son expression par shARN confère un avantage prolifératif. Nous avons confirmé que Necdin est un gène cible de p53 induit par différents agents génotoxiques, toutefois son expression peut également être régulée de façon p53-indépendante. De plus, Necdin agit négativement sur l’arrêt du cycle cellulaire en réponse à l’activation de p53. Ceci suggère que Necdin est impliqué dans une boucle de régulation négative de la voie de p53 et que l’augmentation anormale de l’expression de Necdin pourrait contribuer à la perturbation la voie du suppresseur de tumeur p53. L’activation de p53 permet l’arrêt transitoire du cycle cellulaire en condition de stress, mais est aussi impliquée dans l’établissement d’un arrêt permanent nommé sénescence. La sénescence est un mécanisme de protection contre l’accumulation de mutations qui peut contribuer à l’initiation du cancer. Vu l’intéressante implication de Necdin dans la régulation de l’activité de p53, nous avons transposé les connaissances acquises du modèle murin à un modèle humain, plus adapté pour l’étude de la sénescence. La caractérisation de l’expression de Necdin dans des fibroblastes primaires humains à différents passages montre que les jeunes cellules en prolifération active expriment Necdin et que son niveau diminue avec l’établissement de la sénescence réplicative. Le même phénomène est observé lors de la sénescence prématurée provoquée par l’expression d’un oncogène et par l’exposition aux radiations ionisantes. De plus, dans des conditions normales de prolifération, la modulation de Necdin par des essais de gain et de perte de fonction n’affecte pas la durée de vie des cellules primaires. Toutefois, en condition de stress génotoxique dû à l’exposition aux irradiations, les cellules surexprimant Necdin présentent une radiorésistance accrue de la même façon que lorsque p53 est inactivé directement. Ce résultat en cellules humaines vient appuyer l’effet observé dans les cellules de souris sur l’impact qu’aura le niveau de Necdin sur la réponse de p53 en condition de stress. Un bref survol a été fait pour aborder de quelle façon nos résultats en culture cellulaire pouvaient se traduire dans des modèles de cancer chez l’humain. Nous avons caractérisé l’expression de Necdin dans deux types différents de cancer. D’abord, dans le cancer de l’ovaire, le niveau élevé de Necdin dans les tumeurs à faible potentiel de malignité (LMP) en comparaison aux cancers agressifs de l’ovaire de type séreux suggère que l’expression de Necdin se limite aux cellules de cancer LMP, qui présente généralement un p53 de type sauvage. Son expression est aussi retrouvée dans deux lignées cellulaires du cancer de l’ovaire non-tumorigéniques en xénogreffe de souris, dont l’une possède un p53 fonctionnel. De plus, la caractérisation de Necdin dans les lignées cellulaires du cancer de la prostate suggère une relation entre son expression et la présence de p53 fonctionnel. Dans le cancer de la prostate, tout comme pour le cancer de l’ovaire, Necdin semble être présent dans les lignées représentant un stade moins avancé de la maladie. L’utilisation de l’oncoprotéine virale PyLT nous a permis de révéler des propriétés intéressantes de Necdin. Nous proposons que dans certains contextes, l’expression constitutive de Necdin pourrait contribuer au cancer en retardant une réponse par p53 appropriée et possiblement en participant à l’augmentation de l’instabilité génomique. La fonction potentiellement oncogénique de Necdin quant à sa relation avec p53 que nous avons révélée requiert davantage d’investigation et les cancers caractérisés ici pourraient constituer de bons modèles à cette fin.
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Les gènes codant pour des protéines peuvent souvent être regroupés et intégrés en modules fonctionnels par rapport à un organelle. Ces modules peuvent avoir des composantes qui suivent une évolution corrélée pouvant être conditionnelle à un phénotype donné. Les gènes liés à la motilité possèdent cette caractéristique, car ils se suivent en cascade en réponse à des stimuli extérieurs. L’hyperthermophilie, d’autre part, est interreliée à la reverse gyrase, cependant aucun autre élément qui pourrait y être associé avec certitude n’est connu. Ceci peut être dû à un déplacement de gènes non orthologues encore non résolu. En utilisant une approche bio-informatique, une modélisation mathématique d’évolution conditionnelle corrélée pour trois gènes a été développée et appliquée sur des profils phylétiques d’archaea. Ceci a permis d’établir des théories quant à la fonction potentielle du gène du flagelle FlaD/E ainsi que l’histoire évolutive des gènes lui étant liés et ayant contribué à sa formation. De plus, une histoire évolutive théorique a été établie pour une ligase liée à l’hyperthermophilie.