879 resultados para Mathématiques financières
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Resumo:
Balzac contait – c o n t – des nouvelles, des romans, pour édifier son grand œuvre, La Comédie humaine. Il comptait – c o m p t – aussi, alignait les chiffres, vertigineusement. Dans les histoires qu’il racontait. Dans les lettres qu’il écrivait, comme en témoigne au mieux la correspondance qu’il échangea pendant dixsept ans, de 1832 à 1849 avec Madame Hanska, femme du comte, oui du comte Han – il faut être attentif aux homonymies dit mon ami le philosophe Patrice Loraux –, avant de devenir à son tour son époux et de mourir six mois après, en 1850. C’est dire qu’il ne comptait pas seulement dans, pour la fiction. Mais dans, pour la vie, sa vie réelle. Et selon un système marqué par l’obligation des chiffres, des chiffres attachés à l’argent, l’argent toujours en manque, toujours désiré, entrevu à l’horizon de ses redoutables entreprises financières, dans le lointain de son travail, de son amour.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Within the European water framework directive (WFD), the status assessment of littoral waters is based both on the chemical quality and on the ecological quality of each water body. Quality elements enabling to assess the ecological status of a water body are, among other things, biological quality elements (phytoplankton, macroalgae, angiosperms, benthic invertebrates, fish), for each of which the member states have developed quantitative indicators. This document is one of the deliverables of a multi-annual study intended to characterize the sensitivity of these biological indicators towards the various anthropogenic pressures exerted on the French Atlantic and Channel coast: ultimately, the goal is to establish a quantitative and predictive relationship, statistically robust, between the WFD indicators used along the French channel and Atlantic coastline, and various anthropogenic pressures acting on these coasts. The aim of the WFD is indeed to restore or maintain a good chemical and biological quality of coastal waters, and thus to limit the impact of human activities potentially responsible for the degradation of ecosystems. This understanding of the linkages and interactions existing between anthropogenic pressures and ecological status of water bodies is therefore essential to identify priorities for action (challenges, substances ...), prioritize actions to implement within restoration programs (technical, fiscal, financial), but also to be able to communicate constructively and persuasively in talks between managers and the various stakeholders of coastal regions. Using the DPSIR methodology, this literature analysis has permitted to identify, for each WFD biological quality element (except fish), which pressures (or pressure types) are potentially relevant in the light of their impact on the indicators of the ecological status of water bodies. Some metrics and indicators of anthropogenic pressures used in the literature to characterize the sensitivity of the biological quality elements, within quantitative approaches, were also identified. It is also clear from this review that the biological quality elements can be particularly sensitive to intrinsic environmental conditions, and therefore to certain changes related to natural phenomena occurring at large scales (e.g. climate change, paroxysmal climate episode...). Therefore, when one is interested in the sensitivity of biological indicators to different anthropogenic pressures, two factors can complicate the analysis and are likely to weaken the resulting statistical relationships: on the one hand, the variability of biological responses depending on the natural context and, on the other hand, interactions (so called synergistic effects) between different types of anthropogenic pressures and the alterations they can generate.
Resumo:
International audience
Resumo:
International audience
Resumo:
International audience
Resumo:
International audience
Resumo:
International audience
Resumo:
International audience
Resumo:
International audience
Resumo:
MSC 19L41; 55S10.
Resumo:
International audience