14 resultados para Wiener-Hopf factorization
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).
Resumo:
This note investigates the adequacy of the finite-sample approximation provided by the Functional Central Limit Theorem (FCLT) when the errors are allowed to be dependent. We compare the distribution of the scaled partial sums of some data with the distribution of the Wiener process to which it converges. Our setup is purposely very simple in that it considers data generated from an ARMA(1,1) process. Yet, this is sufficient to bring out interesting conclusions about the particular elements which cause the approximations to be inadequate in even quite large sample sizes.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Dans ce mémoire, nous étudions le problème centre-foyer sur un système polynomial. Nous développons ainsi deux mécanismes permettant de conclure qu’un point singulier monodromique dans ce système non-linéaire polynomial est un centre. Le premier mécanisme est la méthode de Darboux. Cette méthode utilise des courbes algébriques invariantes dans la construction d’une intégrale première. La deuxième méthode analyse la réversibilité algébrique ou analytique du système. Un système possédant une singularité monodromique et étant algébriquement ou analytiquement réversible à ce point sera nécessairement un centre. Comme application, dans le dernier chapitre, nous considérons le modèle de Gauss généralisé avec récolte de proies.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ce mémoire consiste en l’étude du comportement dynamique de deux oscillateurs FitzHugh-Nagumo identiques couplés. Les paramètres considérés sont l’intensité du courant injecté et la force du couplage. Juqu’à cinq solutions stationnaires, dont on analyse la stabilité asymptotique, peuvent co-exister selon les valeurs de ces paramètres. Une analyse de bifurcation, effectuée grâce à des méthodes tant analytiques que numériques, a permis de détecter différents types de bifurcations (point de selle, Hopf, doublement de période, hétéroclinique) émergeant surtout de la variation du paramètre de couplage. Une attention particulière est portée aux conséquences de la symétrie présente dans le système.
Resumo:
Cette recherche met en parallèle les cultures germanophone et francophone par l’entremise de l’histoire de la contrebasse. La problématique consiste à expliquer l’absence de littérature en français sur l’école viennoise de contrebasse, qui s’est développée dans la seconde moitié du XVIIIe siècle et qui a eu une certaine incidence sur le développement de cet instrument. La première section propose une biographie des principaux représentants de cette école, tous contrebassistes virtuoses actifs à Vienne autour de 1750. Suivent un tour d’horizon des œuvres pour contrebasse concertante du classicisme viennois, puis un rappel historique sur le déclin de cette école. Dans la deuxième section, un parallèle est tracé entre l’avancée du violoncelle et le recul de la contrebasse au XIXe siècle. Suivent une présentation des instruments les plus appréciés de cette époque, à savoir le piano, le cor français et le violoncelle, puis une comparaison entre l’évolution de la contrebasse en France et dans les pays germanophones au XIXe siècle. Finalement, la troisième section est consacrée à la renaissance de l’école viennoise de contrebasse, amorcée au milieu du XXe siècle. Pour observer le déploiement de cette évolution dans les cultures française, germanophone et anglo-saxonne, cette section comporte un examen des œuvres publiées par les maisons d’édition spécialisées en musique ainsi que de celles enregistrées par les contrebassistes.
Resumo:
Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.
Resumo:
Cette recherche porte sur la notion de contrôle qui s’opère sur l’Internet grâce aux outils de l’information et de la communication. Dans une première approche à mon sujet, j’ai essayé de définir les concepts information et communication puis, j’ai retracé le cadre théorique de leurs évolutions; ceci dans le but de (1) montrer l’ambiguïté qui tourne autour de leurs définitions, (2) créer un lien entre ces deux termes et le contrôle. Après une brève description théorique, la complexité du concept de contrôle est mise en relief. Pour- ce- faire, je prends principalement appui sur les travaux de Wiener puis de Michel Foucault, sans toutefois les embrasser totalement. L’objectif de cette approche de travail est de me permettre de cerner et de regrouper les différentes formes de contrôle sur le net en deux catégories, suivant le modèle établi par Michel Foucault dans son ouvrage Surveiller et Punir. Mes deux axes sont: (1) le contrôle - mécanisme, (2) le contrôle - blocus. Enfin, je m’intéresse à l’influence que ces différentes formes de contrôle peuvent avoir sur la construction de notre individualité. Comme point de départ, j’analyse la notion d’individu chez M. Foucault et ensuite, j’explore les concepts d’intériorité versus extériorité. Ces deux concepts recoupent en partie la notion d’individu –construction social - chez Michel Foucault et permettent de poser des questions fondamentales sur les possibilités du sujet d’échapper au contrôle des nouvelles technologies de l’information et de la communication. Quelques éléments de réponse ainsi que des reformulations sont proposés en guise de conclusion.
Resumo:
La méthode de factorisation est appliquée sur les données initiales d'un problème de mécanique quantique déja résolu. Les solutions (états propres et fonctions propres) sont presque tous retrouvés.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.
Resumo:
Les fonctions génératrices des coefficients de Clebsch Gordan pour la superalgèbre de Lie osp(1|2) sont dérivées en utilisant deux approches. Une première approche généralise une méthode proposée par Granovskii et Zhedanov pour l'appliquer dans le cas de osp(1|2), une algèbre dont le coproduit est torsadé. Une seconde approche repose sur la réalisation de osp(1|2) en tant qu'algèbre dynamique d'un oscillateur parabosonique et utilise une équivalence dans cette réalisation entre le changements de coordonnées polaires à cartésiennes et le problème de Clebsch-Gordan. Un chapitre moins formel précède ces dérivations et présente comment le problème de Clebsch-Gordan s'interprète en tant que réalisation d'une algèbre de fusion. La notion abstraite de fusion est introduite, soulignant son importance en physique, pour en venir au cas particulier du problème de Clebsch-Gordan. Un survol du cas de l'algèbre osp(1|2) et de ses utilisations en physique mathématique conclut ce chapitre.