23 resultados para non-normal space
em Université de Montréal, Canada
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Nous analysons des bulles d'espace-temps d'épaisseur finie en relativité générale. Les conditions d'énergie sont utilisées afin d'obtenir un ensemble de critères permettant de restreindre la structure du bord de la bulle. Dans le cas des bulles statiques et à symétrie sphérique, nous obtenons quatre inégalités différentielles équivalentes aux trois conditions d'énergie les plus communes. Nous montrons qu'elles sont équivalentes à un ensemble de deux inégalités différentielles simples lorsque le potentiel gravitationnel effectif a une forme particulière. Nous paramétrons alors l'espace-temps de manière à rendre la vérification de ces inégalités plus simple lorsqu'il sera question de bulles d'espace-temps. Nous traitons en particulier quatre formes de bulles, toutes caractérisées par un extérieur de type Schwarzschild de Sitter. Nous montrons que notre méthode donne les bons résultats lorsque la limite où l'épaisseur de la bulle tend vers zéro est prise. Nous terminons par un traitement succinct du problème d'une onde gravitationnelle se propageant dans un nuage de bulles d'espace-temps.
Resumo:
The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (LL.M) option recherche"
Resumo:
Le présent ouvrage propose une lecture spatiale du roman Texaco, de l’auteur martiniquais Patrick Chamoiseau. Texaco retrace l’histoire de la Martinique, principalement celle de sa population noire créolophone, depuis le XIXe siècle – époque de la traite et de l’esclavage – jusqu’à la fin du XXe siècle. Considérant que l’identité d’un individu (ou d’une communauté) est étroitement corrélée au rapport qu’entretient celui-ci avec son espace de vie, notre travail vise à mettre au jour les particularités identitaires des personnages du roman au travers d’une analyse des espaces qu’ils occupent et façonnent dans le récit. En nous appuyant sur des concepts spatiaux empruntés à Henri Lefebvre (l’espace tripartite), à Michel de Certeau (le lieu, l’espace et la pratique spatiale) et à Marc Augé (le lieu et le non-lieu), nous souhaitons montrer de quelle manière et dans quelle mesure ces différentes entités spatiales expriment, consolident ou oblitèrent l’identité singulière des personnages chamoisiens, c’est-à-dire leur « créolité ».
Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien
Resumo:
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.
Resumo:
Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.
Resumo:
La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).
Resumo:
CONTEXTE: L'inefficacité de captation des acides gras libres (AGL) par le tissu adipeux blanc (TAB) est connue pour favoriser la résistance à l'insuline (RI) dans les tissus périphériques, mais dans le foie, elle favorise également la production accrue de lipoprotéines contenant l'apolipoprotéine B100 (lipoprotéines apoB). Nous avons récemment démontré que les femmes post-ménopausées obèses avec un nombre élevé de lipoprotéines apoB à jeun (apoB plasmatique > 1,2 g/L) avaient plus de RI que les femmes avec un taux d’apoB normal. Notre objectif était donc d'examiner si l'inefficacité de captation des AGL pourrait être un mécanisme expliquant la RI, in vivo dans cette population. HYPOTHÈSES: Les femmes ménopausées en surpoids/obèses avec un taux d’apoB élevé ont moins d'efficacité à capter les AGL par le TAB que les femmes avec un taux d’apoB faible. MÉTHODES/RÉSULTATS: L'efficacité de captation des AGL a été examinée dans 22 femmes non diabétiques en surpoids/obèses. La population a été séparée selon la médiane d’apoB (0.9 g/L) en 2 groupes; les femmes ayant un taux d’apoB inférieur vs supérieur à la médiane (N=11/groupe). L'efficacité de captation des AGL par le TAB a été indirectement évaluée en suivant le sort d'un repas riche en gras (0.0162g 13C-trioléine/g de matières grasses, 66% de gras, 47g gras/m2 surface corporelle) marqué au 13C-trioléine, sur 6h en circulation ([13C]TG et [13C]AGL plasmatiques) et en oxydation (13CO2 dans l’air expiré [AE]). L’enrichissement en 13C des échantillons d’AE et du plasma a été mesuré par spectrométrie de masse pour ratio isotopique. Les femmes ayant un apoB élevé avaient une clairance plasmatique totale postprandiale des TG (p <0,05) réduite sans diminuer de la clairance plasmatique totale des AGL, par rapport aux femmes ayant un faible taux d’apoB. Cependant, en examinant le sort du 13C-trioléine, les femmes ayant un apoB élevé avait une réduction de la clairance des [13C]TG plasmatiques (44,78 μM vs 7,81 μM; p <0,05) et des [13C]AGL plasmatiques (2,64 uM vs 0,06 uM; p <0,05) à 6h, sans aucune différence en % récupéré de 13C-trioléine dans le CO2 de l’AE. Ces données suggèrent que les femmes ayant un taux d’apoB élevé ont une réduction postprandiale de la clairance et de la captation de 13Ctrioléine par le TAB. CONCLUSION: La captation inefficace des AGL par le TAB des femmes post-ménopausées en surpoids et obèses avec un surplus d’apoB peut être un mécanisme sousjacent à la RI chez ces sujets.
Resumo:
L’objectif de ce travail de thèse est d’évaluer le potentiel de la musique comme support mnémotechnique pour l’acquisition de nouvelles informations chez des personnes âgées saines et atteintes de la maladie d’Alzheimer (MA). Les bénéfices de la musique sur la cognition ont souvent été mis en évidence, y compris chez des populations âgées ou atteintes de démence. Parallèlement, chez des sujets jeunes, l’idée que la musique peut servir de support pour la mémoire a été largement débattue. Pourtant, très peu d’études ont posé cette question auprès de populations âgées ou dans la démence, malgré le besoin persistant de stratégies d’intervention dans ce domaine. Dans le présent travail, deux études sont menées dans une cohorte de 8 participants atteints d’un stade léger de la maladie d’Alzheimer, et 7 participants âgés sains appariés en âge et niveau de scolarité. La première étude porte sur la mémoire verbale, et compare l’apprentissage et la rétention de paroles (textes inconnus) présentées de manière récitée ou chantée. Lorsque les paroles sont chantées, différents degrés de familiarité de la mélodie sont contrastés. Aussi, l’action motrice étant intimement liée à l’écoute musicale, nous contrastons deux procédures d’apprentissage impliquant (ou non) la production synchronisée des paroles à mémoriser pendant l’encodage : le participant est invité à chanter à l’unisson avec un modèle (ou à écouter simplement sans chanter). Les résultats de cette étude sont présentés et discutés dans les deux premiers articles de la partie expérimentale. Ils suggèrent globalement que la musique n’aide pas l’apprentissage en rappel immédiat ; un effet délétère est même observé lorsque la mélodie utilisée est non familière. Par contre, la musique favorise la rétention à long terme des paroles, principalement pour les participants MA. Elle ne semble cependant pas interagir avec la procédure d’apprentissage impliquant le chant à l’unisson. La seconde étude porte sur l’apprentissage de séquences de gestes. Suivant la même logique que dans la première étude, nous explorons l’influence d’un accompagnement musical (versus apprentissage en silence) et d’une procédure d’apprentissage avec production synchronisée (versus observation) des gestes durant l’encodage. Les résultats (article 3) ne montrent pas non plus d’interaction entre l’accompagnement et la procédure d’apprentissage, mais différents effets de chaque composante sur les deux groupes de participants. Effectuer les gestes en synchronie avec un modèle lors de l’encodage est bénéfique pour les sujets Contrôles, mais plutôt délétère pour les participants MA. Par contre, l’accompagnement musical favorise davantage l’apprentissage chez les sujet MA que chez les Contrôles. En discussion générale, nous discutons les implications de ces résultats pour la neuropsychologie fondamentale et clinique, et proposons notamment différentes recommandations visant à maximiser ces effets et à les rendre pertinents pour l’usage thérapeutique en stimulation cognitive.
Resumo:
L'endothéline-1 (ET-1) et l'angiotensine II (Ang II) jouent un rôle important dans le maintien de la pression artérielle et l'homéostasie vasculaire. Une activité accrue de ces peptides vasoactifs est présumée contribuer au développement de pathologies vasculaires, telles que l'hypertension, l'athérosclérose, l'hypertrophie et la resténose. Ceci est causé par une activation excessive de plusieurs voies de signalisation hypertrophiques et prolifératives, qui incluent des membres de la famille des Mitogen Activated Protein Kinases (MAPK), ainsi que la famille phosphatidylinositol 3-kinase (PI3-K) / protéine kinase B (PKB). Bien que l'activation de ces voies de signalisation soit bien élucidée, les éléments en amont responsables de l'activation des MAPK et de la PKB, induite par l'ET-1 et Ang II, demeurent mal compris. Durant les dernières années, le concept de la transactivation de récepteurs et/ou non-récepteurs protéines tyrosine kinases (PTK) dans le déclenchement des événements de signalisation induits par les peptides vasoactifs a gagné beaucoup de reconnaissance. Nous avons récemment démontré que la PTK Insulin-like Growth Factor type-1 Receptor (IGF-1R) joue un rôle dans la transduction des signaux induits par l‟H2O2, menant à la phosphorylation de la PKB. Étant donné que les peptides vasoactifs génèrent des espèces réactives d'oxygène, telles que l‟H2O2 lors de leur signalisation, nous avons examiné le rôle de d‟IGF-1R dans la phosphorylation de la PKB et les réponses hypertrophiques dans les cellules muscle lisse vasculaires (CMLV) induites par l'ET-1 et Ang II. AG-1024, un inhibiteur spécifique de l'IGF-1R, a atténué la phosphorylation de la PKB induite à la fois par l'ET-1 et Ang II. Le traitement des CMLVs avec l‟ET-1 et Ang II a également induit une phosphorylation des résidus tyrosine dans les sites d'autophosphorylation d'IGF-1R, celle-ci a été bloquée par l‟AG-1024. En outre, l‟ET-1 et l‟Ang II on tous les deux provoqué la phosphorylation de c-Src, une PTK non-récepteur, bloqué par PP-2, inhibiteur spécifique de la famille Src. La PP-2 a également inhibé la phosphorylation de PKB et d‟IGF-1R induite par l‟ET-1 et l‟Ang II. De plus, la synthèse de protéines ainsi que d‟ADN, marqueurs de la prolifération cellulaire et de l'hypertrophie, ont également été atténuée par l‟AG-1024 et le PP-2. Bien que ce travail démontre le rôle de c-Src dans la phosphorylation PKB induite par l'ET-1 et Ang II, son rôle dans l'activation des MAPK induit par l'ET-1 dans les CMLVs reste controversé. Par conséquent, nous avons examiné l'implication de c-Src dans l'activation de ERK 1/2, JNK et p38MAPK, par l'ET-1 et Ang II, ainsi que leur capacité à régulariser l'expression du facteur de transcription Early growth transcription factor-1 « Egr-1 ». ET-1 et Ang II ont induit la phosphorylation de ERK 1/2, JNK et p38 MAPK, et ont amplifié l'expression d'Egr-1 dans les CMLVs. Cette augmentation de la phosphorylation des MAPK a été diminuée par la PP-2, qui a aussi atténué l'expression d'Egr-1 induite par l'ET-1 et l'Ang II. Une preuve supplémentaire du rôle de c-Src dans ce processus a été obtenue en utilisant des fibroblastes embryonnaires de souris déficientes en c-Src (Src -/- MEF). L'expression d'Egr-1, ainsi que l'activation des trois MAPKs par l'ET-1 ont été atténuées dans les cellules Src -/- par rapport au MEF exprimant des taux normaux Src. En résumé, ces données suggèrent que l'IGF-1R et c-Src PTK jouent un rôle essentiel dans la régulation de la phosphorylation de PKB et des MAPK dans l‟expression d'Egr-1, ainsi que dans les réponses hypertrophiques et prolifératives induites par l'ET-1 et Ang II dans les CMLVs.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.