962 resultados para Théorie des matrices aléatoires
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.
Resumo:
Il est reconnu que les résultats électoraux au Canada varient grandement selon la région. Afin de trouver des explications à ce phénomène, il convient d’étudier comment les grandes régions du Canada se distinguent les unes des autres sur le plan politique. La présente recherche amorce cette étude sous l’angle de l’idéologie. Elle tente de déterminer en quoi l’idéologie politique diffère d’une région à l’autre du pays. Elle s’appuie sur les données des études électorales canadiennes de 2008. On a recours à des questions évaluant les préférences des répondants par rapport à plusieurs enjeux politiques pour répondre à la question de recherche. On conduit en premier lieu une analyse factorielle, qui identifie six facteurs qui ont structuré l’opinion publique lors de l’élection de 2008. Ensuite, des tests T sont conduits pour vérifier si les moyennes de ces facteurs idéologiques sont statistiquement différentes d’une région à l’autre. Les résultats montrent que les différences régionales sont souvent significatives et suivent les hypothèses. Toutefois, les résultats touchant à la privatisation de la santé ainsi qu’au Manitoba et à la Saskatchewan vont à l’encontre des attentes.
Resumo:
L’avènement, en microéconomie de la santé, de la théorie de l’agence et de son corollaire en terme de régulation qu’est l’incitation, ont exclu la question du statut théorique de l’éthique médicale en la rendant dénuée d’intérêt pratique. En effet, que l’éthique soit utilitaire, (conditionnelle à la maximisation d’utilité), ou anti utilitaire (norme inconditionnelle), l’incitation est la seule politique publique pertinente. Cependant, selon nous, l’émergence d’une importante littérature en économie sur le « crowding out effect » vient redonner une place capitale au statut de l’éthique. Si les motivations sont substituables alors, l’incitation peut être contreproductive. La faible compatibilité entre théorie des motivations et théorie de l’agence renforce alors la pertinence de l’hypothèse d’éthique antiutilitaire.
Resumo:
Thèse réalisée en cotutelle avec l'Institut supérieur de philosophie, Université catholique de Louvain.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Le portrait captive lorsqu’il est envisagé comme présence humaine et qu’il tend à se soustraire à l’interprétation analytique. Prenant appui sur ce constat, le mémoire se penche sur la réponse spectatorielle induite par des portraits photographiques dont l’opacité pose un défi à l’attribution de significations précises. Ces portraits, qui abordent le thème de la mort, appartiennent au corpus "What Remains" (2000-2004) de l’artiste américaine Sally Mann. Ils réactualisent le procédé obsolète du collodion, revisitent le vocabulaire formel du pictorialisme et évoquent l’imagerie mortuaire du 19e siècle. Par ces citations historiques, les œuvres gênent la lecture du référent et introduisent des renversements de sens: elles troublent toute certitude dans la perception et toute littéralité dans l’interprétation. Le mémoire étudie les diverses stratégies citationnelles à la source de cette opacification et examine comment celles-ci tendent à établir les conditions de l’expérience esthétique. Après avoir réévalué certains présupposés théoriques sur la photographie, les paramètres techniques, formels et iconographiques des œuvres sont passés en revue afin d’évaluer leur impact respectif. En s’appuyant sur un cadre issu de la théorie des médias et de la psychanalyse, le travail du médium émerge comme le principal déterminant de l’expérience de ces portraits contemporains.
Resumo:
Les prothèses myoélectriques modernes peuvent être dotées de plusieurs degrés de liberté ce qui nécessite plusieurs signaux musculaires pour en exploiter pleinement les capacités. Pour obtenir plus de signaux, il nous a semblé prometteur d'expérimenter si les 6 compartiments du biceps brachial pouvaient être mis sous tension de façon volontaire et obtenir ainsi 6 signaux de contrôle au lieu d'un seul comme actuellement. Des expériences ont donc été réalisées avec 10 sujets normaux. Des matrices d'électrodes ont été placées en surface au-dessus du chef court et long du biceps pour recueillir les signaux électromyographiques (EMG) générés par le muscle lors de contractions effectuées alors que les sujets étaient soit assis, le coude droit fléchi ~ 100 ° ou debout avec le bras droit tendu à l'horizontale dans le plan coronal (sur le côté). Dans ces deux positions, la main était soit en supination, soit en position neutre, soit en pronation. L'amplitude des signaux captés au-dessus du chef court du muscle a été comparée à ceux obtenus à partir du chef long. Pour visualiser la forme du biceps sous les électrodes l'imagerie ultrasonore a été utilisée. En fonction de la tâche à accomplir, l'activité EMG a était plus importante soit dans un chef ou dans l'autre. Le fait de pouvoir activer préférentiellement l'un des 2 chefs du biceps, même si ce n'est pas encore de façon complètement indépendante, suggère que l'utilisation sélective des compartiments pourrait être une avenue possible pour faciliter le contrôle des prothèses myoélectriques du membre supérieur.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Réalisé en cotutelle internationale avec l'Université de Toulouse II-Le Mirail