225 resultados para Utilité différentielle stochastique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : Les soins dentaires des enfants autistes représentent un défi pour les parents et les dentistes. Des efforts doivent être faits afin d’améliorer les mesures préventives et l’éducation des parents. Recension des écrits : L’autisme se définit comme un désordre qualitatif de l’interaction sociale et de la communication, par des comportements ou activités répétitifs et stéréotypés et par de l’hypersensibilité aux stimuli corporels. Le manque de coopération pour le brossage des dents constitue un obstacle au maintien d’une bonne hygiène bucco-dentaire chez l’enfant autiste. Problématique : L’enfant autiste représente un défi pour le dentiste, mais aussi pour ses parents lors des mesures quotidiennes d’hygiène. Peu d’études cliniques se sont penchées sur l’utilité des pictogrammes dans la dispensation des soins dentaires quotidiens et professionnels de cette clientèle. Hypothèse de recherche : L’utilisation de pictogrammes améliore la coopération des enfants autistes pour les soins dentaires quotidiens et chez le dentiste, leur procurant une meilleure hygiène bucco-dentaire. Matériels et méthodes : Selon un devis d’étude expérimentale randomisée, 17 participants expérimentaux (avec pictogrammes) et 18 participants contrôles ont été recrutés au CHU Sainte-Justine, puis évalués à 6 reprises sur 12 mois. L’hygiène fut notée par l’indice de plaque et le comportement par l’échelle de Frankl. Résultats : Aucune différence significative n’a été notée entre le groupe expérimental et contrôle pour l’indice de plaque et l’échelle de Frankl. Globalement, une baisse de l’indice de plaque et une amélioration du comportement ont été notées pour les deux groupes et ce, pendant la période d’étude de 12 mois. Conclusion : Les résultats de la présente étude ne permettent pas d’affirmer que les pictogrammes contribuent à améliorer l’hygiène bucco-dentaire et le comportement des enfants autistes lors des soins dentaires quotidiens et professionnels.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Réalisé sous la co-direction de Pierre Tremblay

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Canada, la prévalence de l'intimidation par les pairs (IPP) est estimée à environ 20 %. L'IPP est associée à de nombreuses difficultés sur le rendement scolaire et le fonctionnement émotionnel, cognitif et comportemental de la victime. Afin de s'investir dans la lutte contre l'IPP, le Québec a promulgué en 2012 la Loi visant à lutter contre l'intimidation et la violence à l'école. Ainsi, les écoles ont pour obligation d'instaurer un plan d'action contre l'intimidation. Toutefois, les services d'aide aux victimes sont parfois limités. C'est pourquoi l'application mobile « +Fort » a été développée. +Fort vise à soutenir les victimes d'IPP à réduire leurs expériences et à prévenir les difficultés associées. Le présent mémoire a trois objectifs: (1) décrire l'expérience des victimes d'IPP ayant utilisé +Fort pendant quatre semaines, (2) effectuer une première appréciation de l'utilité de +Fort à partir des récits des victimes et (3) décrire comment +Fort soutien les jeunes à réduire leurs expériences d'intimidation. Des entrevues semi-dirigées ont été menées auprès de 12 victimes d'IPP (12 à 16 ans) de la région de Montréal puis analysées thématiquement. Les résultats suggèrent que +Fort agirait comme un facilitateur dans les démarches de changement des victimes pour réduire l'IPP. Les ressources offertes par +Fort procureraient aussi une impression de soutien aux victimes qui influencerait ensuite leur désir et leur motivation à entreprendre des actions pour que cesse l'intimidation. Ainsi, les technologies mobiles représenteraient une plateforme attrayante pour soutenir le mieux-être des jeunes vivant de l'intimidation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sommeil est un besoin vital et le bon fonctionnement de l’organisme dépend de la quantité et de la qualité du sommeil. Le sommeil est régulé par deux processus : un processus circadien qui dépend de l’activité des noyaux suprachiasmatiques de l’hypothalamus et qui régule le moment durant lequel nous allons dormir, et un processus homéostatique qui dépend de l’activité neuronale et se reflète dans l’intensité du sommeil. En effet, le sommeil dépend de l’éveil qui le précède et plus l’éveil dure longtemps, plus le sommeil est profond tel que mesuré par des marqueurs électroencéphalographiques (EEG). Des études ont montré que le bon fonctionnement de ces deux processus régulateurs du sommeil dépend de la plasticité synaptique. Ainsi, les éléments synaptiques régulant la communication et la force synaptique sont d’importants candidats pour agir sur la physiologie de la régulation du sommeil. Les molécules d’adhésion cellulaire sont des acteurs clés dans les mécanismes de plasticité synaptique. Elles régulent l’activité et la maturation des synapses. Des études ont montré que leur absence engendre des conséquences similaires au manque de sommeil. Le but de ce projet de thèse est d’explorer l’effet de l’absence de deux familles de molécule d’adhésion cellulaire, les neuroligines et la famille des récepteur Eph et leur ligand les éphrines dans les processus régulateurs du sommeil. Notre hypothèse est que l’absence d’un des membres de ces deux familles de molécule affecte les mécanismes impliqués dans le processus homéostatique de régulation du sommeil. Afin de répondre à notre hypothèse, nous avons étudié d’une part l’activité EEG chez des souris mutantes n’exprimant pas Neuroligine‐1 (Nlgn1) ou le récepteur EphA4 en condition normale et après une privation de sommeil. D’autre part, nous avons mesuré les changements moléculaires ayant lieu dans ces deux modèles après privation de sommeil. Au niveau de l’activité EEG, nos résultats montrent que l’absence de Nlgn1 augmente la densité des ondes lentes en condition normale et augment l’amplitude et la pente des ondes lentes après privation de sommeil. Nlgn1 est nécessaire au fonctionnement normal de la synchronie corticale, notamment après une privation de sommeil, lui attribuant ainsi un rôle clé dans l’homéostasie du sommeil. Concernant le récepteur EphA4, son absence affecte la durée du sommeil paradoxal ainsi que l’activité sigma qui dépendent du processus circadien. Nos résultats suggèrent donc que ce récepteur est un élément important dans la régulation circadienne du sommeil. Les changements transcriptionnels en réponse à la privation de sommeil des souris n’exprimant pas Nlgn1 et EphA4 ne sont pas différents des souris sauvages. Toutefois, nous avons montré que la privation de sommeil affectait la distribution des marques épigénétiques sur le génome, tels que la méthylation et l’hydroxyméthylation, et que l’expression des molécules régulant ces changements est modifiée chez les souris mutantes pour le récepteur EphA4. Nos observations mettent en évidence que les molécules d’adhésion cellulaire, Nlgn1 et le récepteur EphA4, possèdent un rôle important dans les processus homéostatique et circadien du sommeil et contribuent de manière différente à la régulation du sommeil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A contingent contract in a transferable utility game under uncertainty specifies an outcome for each possible state. It is assumed that coalitions evaluate these contracts by considering the minimal possible excesses. A main question of the paper concerns the existence and characterization of efficient contracts. It is shown that they exist if and only if the set of possible coalitions contains a balanced subset. Moreover, a characterization of values that result in efficient contracts in the case of minimally balanced collections is provided.