980 resultados para asymptotiques en temps continu


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette thèse est de réfléchir aux enjeux d’une histoire du jeu de stratégie en temps réel (STR). Il s’agit de mieux comprendre les contextes dans lesquels le genre prend sens pour historiciser son émergence et sa période classique. Cette thèse cherche à documenter, d’une part, la cristallisation du STR en tant qu’objet ayant une forme relativement stable et en tant que corpus précis et identifié et, d’autre part, l’émergence des formes de jouabilité classiques des STR. La première partie est consacrée à décrire l’objet de cette recherche, pour mieux comprendre la complexité du terme « stratégie » et de la catégorisation « jeu de stratégie ». La seconde partie met en place la réflexion épistémologique en montrant comment on peut tenir compte de la jouabilité dans un travail historien. Elle définit le concept de paradigme de jouabilité en tant que formation discursive pour regrouper différents énoncés actionnels en une unité logique qui n’est pas nécessairement l’équivalent du genre. La troisième partie cartographie l’émergence du genre entre les wargames des années 1970 et les jeux en multijoueur de la décennie suivante. Deux paradigmes de jouabilité se distinguent pour former le STR classique : le paradigme de décryptage et le paradigme de prévision. La quatrième partie explique et contextualise le STR classique en montrant qu’il comporte ces deux paradigmes de jouabilité dans deux modes de jeu qui offrent des expériences fondamentalement différentes l’une de l’autre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette thèse est de réfléchir aux enjeux d’une histoire du jeu de stratégie en temps réel (STR). Il s’agit de mieux comprendre les contextes dans lesquels le genre prend sens pour historiciser son émergence et sa période classique. Cette thèse cherche à documenter, d’une part, la cristallisation du STR en tant qu’objet ayant une forme relativement stable et en tant que corpus précis et identifié et, d’autre part, l’émergence des formes de jouabilité classiques des STR. La première partie est consacrée à décrire l’objet de cette recherche, pour mieux comprendre la complexité du terme « stratégie » et de la catégorisation « jeu de stratégie ». La seconde partie met en place la réflexion épistémologique en montrant comment on peut tenir compte de la jouabilité dans un travail historien. Elle définit le concept de paradigme de jouabilité en tant que formation discursive pour regrouper différents énoncés actionnels en une unité logique qui n’est pas nécessairement l’équivalent du genre. La troisième partie cartographie l’émergence du genre entre les wargames des années 1970 et les jeux en multijoueur de la décennie suivante. Deux paradigmes de jouabilité se distinguent pour former le STR classique : le paradigme de décryptage et le paradigme de prévision. La quatrième partie explique et contextualise le STR classique en montrant qu’il comporte ces deux paradigmes de jouabilité dans deux modes de jeu qui offrent des expériences fondamentalement différentes l’une de l’autre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contiene: T. 1 (411 p.) -- T. 2 (468 p.) -- T. 3 (483 p.)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les lasers à fibre de haute puissance sont maintenant la solution privilégiée pour les applications de découpe industrielle. Le développement de lasers pour ces applications n’est pas simple en raison des contraintes qu’imposent les normes industrielles. La fabrication de lasers fibrés de plus en plus puissants est limitée par l’utilisation d’une fibre de gain avec une petite surface de mode propice aux effets non linéaires, d’où l’intérêt de développer de nouvelles techniques permettant l’atténuation de ceux-ci. Les expériences et simulations effectuées dans ce mémoire montrent que les modèles décrivant le lien entre la puissance laser et les effets non linéaires dans le cadre de l’analyse de fibres passives ne peuvent pas être utilisés pour l’analyse des effets non linéaires dans les lasers de haute puissance, des modèles plus généraux doivent donc développés. Il est montré que le choix de l’architecture laser influence les effets non linéaires. En utilisant l’équation de Schrödinger non linéaire généralisée, il a aussi été possible de montrer que pour une architecture en co-propagation, la diffusion Raman influence l’élargissement spectral. Finalement, les expériences et les simulations effectuées montrent qu’augmenter la réflectivité nominale et largeur de bande du réseau légèrement réfléchissant de la cavité permet d’atténuer la diffusion Raman, notamment en réduisant le gain Raman effectif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vers la fin des années 1990 et au début des années 2000, l’idée que l’ARN puisse interagir directement avec de petits métabolites pour contrôler l’expression de certains gènes devient de plus en plus acceptée. Des recherches menées à cette époque ont permis la découverte de plusieurs structures d’ARN hautement conservées nommées riborégulateurs. La structure de ces ARN leur permet de reconnaître spécifiquement un ligand. La reconnaissance du ligand entraîne ensuite un changement de conformation dans l’ARN responsable du contrôle de l’expression génétique. Le but de cette thèse est d’étudier la structure et les changements de conformation du riborégulateur associé au gène add liant l’adénine chez Vibrio vulnificus. Ce riborégulateur étant relativement simple, les informations recueillies lors de cette étude pourront servir à comprendre le fonctionnement de riborégulateurs plus complexes. Dans l’introduction, la découverte des riborégulateurs sera décrite en plus des caractéristiques particulières et de l’importance de ces ARN. Par la suite, quelques exemples démontrant l’importance des structures d’ARN seront abordés. Ensuite, les techniques de fluorescence utilisées pour étudier les structures d’ARN au cours de cette thèse seront présentées. Enfin, les recherches effectuées sur les riborégulateurs adénine seront détaillées afin d’aider le lecteur à bien comprendre le type de riborégulateur au centre de cette thèse. Le chapitre 1 traite du repliement de l’aptamère suite à la liaison avec l’adénine. Dans ce chapitre, il est démontré que l’aptamère peut adopter trois conformations. Une modification de la séquence de l’aptamère de type sauvage a permis d’isoler ces trois conformations. Il a ensuite été possible d’identifier les caractéristiques propres à chacun des états. Le chapitre 2 s’intéresse à une région précise du riborégulateur adénine. Dans ce chapitre, la conformation du cœur de l’aptamère est étudiée plus en profondeur. Il y est possible de constater que le repliement du cœur de l’aptamère influence l’interaction boucle-boucle en présence de magnésium et de ligand. De plus, la présence de ligand, en concentration suffisante, permet le repliement du cœur et favorise le rapprochement des tiges P2 et P3 dans un aptamère muté pour empêcher la formation de l’interaction boucle-boucle. Il semble donc que le repliement du cœur de l’aptamère influence la structure globale de l’aptamère. Finalement, les travaux présentés dans les chapitres 1 et 2 seront mis en contexte avec la littérature scientifique disponible. Cette discussion tentera de réconcilier certaines observations contradictoires. Il sera ensuite question de l’impact que les travaux présentés dans cette thèse peuvent avoir dans le domaine de l’ARN. Enfin, quelques études à réaliser en continuité avec ces travaux seront proposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper derives the ARMA representation of integrated and realized variances when the spot variance depends linearly on two autoregressive factors, i.e., SR SARV(2) models. This class of processes includes affine, GARCH diffusion, CEV models, as well as the eigenfunction stochastic volatility and the positive Ornstein-Uhlenbeck models. We also study the leverage effect case, the relationship between weak GARCH representation of returns and the ARMA representation of realized variances. Finally, various empirical implications of these ARMA representations are considered. We find that it is possible that some parameters of the ARMA representation are negative. Hence, the positiveness of the expected values of integrated or realized variances is not guaranteed. We also find that for some frequencies of observations, the continuous time model parameters may be weakly or not identified through the ARMA representation of realized variances.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un modèle mathématique de la propagation de la malaria en temps discret est élaboré en vue de déterminer l'influence qu'un déplacement des populations des zones rurales vers les zones urbaines aurait sur la persistance ou la diminution de l'incidence de la malaria. Ce modèle, sous la forme d'un système de quatorze équations aux différences finies, est ensuite comparé à un modèle analogue mais en temps continu, qui prend la forme d'équations différentielles ordinaires. Une étude comparative avec la littérature récente permet de déterminer les forces et les faiblesses de notre modèle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis introduces new processing techniques for computer-aided interpretation of ultrasound images with the purpose of supporting medical diagnostic. In terms of practical application, the goal of this work is the improvement of current prostate biopsy protocols by providing physicians with a visual map overlaid over ultrasound images marking regions potentially affected by disease. As far as analysis techniques are concerned, the main contributions of this work to the state-of-the-art is the introduction of deconvolution as a pre-processing step in the standard ultrasonic tissue characterization procedure to improve the diagnostic significance of ultrasonic features. This thesis also includes some innovations in ultrasound modeling, in particular the employment of a continuous-time autoregressive moving-average (CARMA) model for ultrasound signals, a new maximum-likelihood CARMA estimator based on exponential splines and the definition of CARMA parameters as new ultrasonic features able to capture scatterers concentration. Finally, concerning the clinical usefulness of the developed techniques, the main contribution of this research is showing, through a study based on medical ground truth, that a reduction in the number of sampled cores in standard prostate biopsy is possible, preserving the same diagnostic power of the current clinical protocol.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.