53 resultados para generalization


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La généralisation des acquis dans le domaine de l’agression sexuelle peut se subdiviser en deux volets, soit la généralisation qui se produit lors du traitement et celle suivant le retour dans la collectivité. Le modèle de traitement cognitivo-comportemental, basé sur les principes du risque, des besoins et de la réceptivité, permet une réduction significative des taux de récidive. Plus spécifiquement, les besoins criminogènes ciblés chez chacun des délinquants et le type de stratégies apprises en traitement peuvent influer sur le processus de généralisation des acquis. De la même façon, les caractéristiques propres à l’agresseur sexuel ont également un rôle à jouer. Lors de la libération, la considération et la mise en place de certaines mesures, telles que le plan de réinsertion sociale, les besoins sociaux et individuels, l’employabilité, le logement et la continuité thérapeutique importent afin de faciliter le maintien des acquis. Ainsi, le présent projet de maîtrise vise à mettre de l’avant une meilleure compréhension du phénomène de la généralisation des acquis chez quatre délinquants sexuels suivis dans la collectivité (Centre de psychiatrie légale de Montréal), à la suite d’un traitement d’un an complété à l’Institut Philippe-Pinel de Montréal. Dans le but de comprendre les facteurs pouvant favoriser ce processus, nous avons étudié la manière dont ces différents facteurs se sont présentés chez les délinquants sexuels à l’étude et l’impact lié à la présence ou à l’absence de ces variables. L’analyse clinique du matériel obtenu a démontré, d’une part, que la généralisation des acquis est facilitée lorsque l’ensemble des besoins criminogènes sont des cibles de traitement et que, d’autre part, le délinquant est en mesure d’appliquer des stratégies cognitivo-comportementales plutôt que des techniques purement cognitives. Par ailleurs, la présence d’impulsivité et de problèmes individuels non stabilisés peut nuire au processus. Finalement, il est ressorti que la généralisation des acquis est plus facilement atteignable lorsque les variables identifiées comme étant propices à une réinsertion sociale réussie sont présentes dans le quotidien des délinquants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’examiner et d’intervenir auprès des déficits de la mémoire de travail (MdeT) à l’intérieur de deux populations cliniques : la maladie d’Alzheimer (MA) et le trouble cognitif léger (TCL). La thèse se compose de trois articles empiriques. Le but de la première expérimentation était d’examiner les déficits de MdeT dans le vieillissement normal, le TCL et la MA à l’aide de deux versions de l’empan complexe : l’empan de phrases et l’empan arithmétique. De plus, l’effet de «l’oubli» (forgetting) a été mesuré en manipulant la longueur de l’intervalle de rétention. Les résultats aux tâches d’empan complexe indiquent que la MdeT est déficitaire chez les individus atteints de TCL et encore plus chez les gens ayant la MA. Les données recueillies supportent également le rôle de l’oubli à l’intérieur de la MdeT. L’augmentation de l’intervalle de rétention exacerbait le déficit dans la MA et permettait de prédire un pronostic négatif dans le TCL. L’objectif de la deuxième étude était d’examiner la faisabilité d’un programme d’entraînement cognitif à l’ordinateur pour la composante de contrôle attentionnel à l’intérieur de la MdeT. Cette étude a été réalisée auprès de personnes âgées saines et de personnes âgées avec TCL. Les données de cette expérimentation ont révélé des effets positifs de l’entraînement pour les deux groupes de personnes. Toutefois, l’absence d’un groupe contrôle a limité l’interprétation des résultats. Sur la base de ces données, la troisième expérimentation visait à implémenter une étude randomisée à double-insu avec groupe contrôle d’un entraînement du contrôle attentionnel chez des personnes TCL avec atteinte exécutive. Ce protocole impliquait un paradigme de double-tâche composé d’une tâche de détection visuelle et d’une tâche de jugement alpha-arithmétique. Alors que le groupe contrôle pratiquait simplement la double-tâche sur six périodes d’une heure chacune, le groupe expérimental recevait un entraînement de type priorité variable dans lequel les participants devaient gérer leur contrôle attentionnel en variant la proportion de ressources attentionnelles allouée à chaque tâche. Les résultats montrent un effet significatif de l’intervention sur une des deux tâches impliquées (précision à la tâche de détection visuelle) ainsi qu’une tendance au transfert à une autre tâche d’attention divisée, mais peu d’effets de généralisation à d’autres tâches d’attention. En résumé, les données originales rapportées dans la présente thèse démontrent un déficit de la MdeT dans les maladies neurodégénératives liées à l’âge, avec un gradient entre le TCL et la MA. Elles suggèrent également une préservation de la plasticité des capacités attentionnelles chez les personnes à risque de développer une démence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université d'Avignon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat a été réalisée grâce à l'appui financier des fonds québécois de la recherche sur la société et la culture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse aux formes et à la capacité des associations patronales à façonner les règles du travail au niveau sectoriel, plus précisément dans le secteur de l’hôtellerie au Québec. Elle vise également à mieux comprendre comment ces règles contribuent à modifier les pratiques locales en relations industrielles de leurs entreprises membres. Notre première question de recherche vise donc à cerner l’impact des logiques de représentation et d’action des associations patronales sur les pratiques en relations industrielles. Pour certains auteurs, notamment Behrens et Traxler (2004 et 2007), Carley et al. (2010), Charest, Laroche et Hickey (à paraître), les logiques de représentation et d’action chez les acteurs patronaux se distinguent l’une de l’autre et influencent de manière différente les pratiques en relations industrielles. Ainsi, la présence, la forme et le rôle d’une association patronale auront un impact significatif sur les pratiques en relations industrielles, car les membres peuvent être influencés par les orientations de leurs associations. Notre seconde question de recherche aborde la manière dont les entreprises membres utilisent leurs ressources de pouvoir afin d’influencer les actions des associations patronales. La littérature existante à ce sujet mentionne que les acteurs patronaux détenant plusieurs ressources de pouvoir, qu’elles soient internes ou externes (Charest, Laroche et Hickey, à paraître; Laroche et Hickey, à paraître), sont en mesure d’exercer une influence dans les institutions politiques. Nous tenterons donc de vérifier si, plus une association patronale sera en mesure de mobiliser ses ressources de pouvoir, plus elle sera apte à influencer le contexte institutionnel dans lequel elle agit. Au plan théorique, cette recherche s’appuie sur les idées développées par les théories néo-institutionnalistes. D’une part, nous reconnaissons que les acteurs doivent réagir et s’adapter aux changements qui s’opèrent au sein de leur environnement. Ils développeront donc des stratégies diverses, autant en matière de coordination des actions patronales que de relations du travail au niveau local, en fonction de leur interprétation de ces transformations (Traxler et Huemer, 2007). D’autre part, nous reconnaissons que les acteurs sont aussi en mesure de mobiliser leurs ressources de pouvoir pour déployer des initiatives stratégiques qui seront susceptibles de provoquer en retour des changements au sein de leur environnement (Crouch, 2005). Ces entrepreneurs institutionnels sont ainsi à la recherche active d’opportunités et de leviers de pouvoir à utiliser pour maximiser leurs intérêts respectifs et, par le fait même, réduire les incertitudes issues de leur environnement (Campbell, 2004; Streeck et Thelen, 2005; Crouch, 2005). Notre recherche reconnaît également que les acteurs qui détiennent le plus grand pouvoir au sein d’un groupe, soient les porteurs de projets, vont être en mesure de façonner les institutions en fonction de leurs intérêts spécifiques (Thelen, 2003). C’est d’ailleurs sur ce plan que notre recherche veut se démarquer des travaux plus larges dans laquelle elle s’insère. Au plan empirique, cette recherche étudie l’acteur patronal dans l’industrie de l’hôtellerie au Québec et vise trois objectifs : 1) faire la cartographie des associations patronales dans le secteur de l’hôtellerie au Québec (formes, structures, activités, missions, etc.); 2) analyser l’impact des règles issues du processus de régulation au niveau sectoriel sur les pratiques de relations du travail locales; et 3) identifier les employeurs dominants au sein du secteur et analyser de quelle manière ils parviennent à modifier les institutions et l’environnement dans lequel ils agissent. Pour atteindre nos objectifs de recherche, nous avons utilisé une méthodologie qualitative de recherche, et plus particulièrement l’étude de cas. Cette dernière a été conduite en trois étapes : la préparation, la collecte des données et l’interprétation (Merriam, 1998). Les données de cette étude ont été recueillies à l’automne 2011, par le biais d’entrevues semi-dirigées auprès de gestionnaires d’hôtels et d’associations hôtelières dans les régions de Québec et de Montréal. Une analyse qualitative du contenu de ces entrevues a été effectuée en lien avec la revue de littérature et nos propositions de recherche. À cette fin, nous avons utilisé la technique de l’appariement logique de Yin (1994), ce qui nous a permis de comparer nos observations à nos propositions de recherche. Il est à noter que puisque cette recherche est une étude de cas, cette dernière présente des limites méthodologiques surtout liées à la généralisation des résultats. Ainsi, il est très difficile d’affirmer que les résultats de cette microanalyse soient généralisables. En contrepartie, les analyses ont servi à consolider le modèle pour utilisation dans des études futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire contient quelques résultats sur l'intégration numérique. Ils sont liés à la célèbre formule de quadrature de K. F. Gauss. Une généralisation très intéressante de la formule de Gauss a été obtenue par P. Turán. Elle est contenue dans son article publié en 1948, seulement quelques années après la seconde guerre mondiale. Étant données les circonstances défavorables dans lesquelles il se trouvait à l'époque, l'auteur (Turán) a laissé beaucoup de détails à remplir par le lecteur. Par ailleurs, l'article de Turán a inspiré une multitude de recherches; sa formule a été étendue de di érentes manières et plusieurs articles ont été publiés sur ce sujet. Toutefois, il n'existe aucun livre ni article qui contiennent un compte-rendu détaillé des résultats de base, relatifs à la formule de Turán. Je voudrais donc que mon mémoire comporte su samment de détails qui puissent éclairer le lecteur tout en présentant un exposé de ce qui a été fait sur ce sujet. Voici comment nous avons organisé le contenu de ce mémoire. 1-a. La formule de Gauss originale pour les polynômes - L'énoncé ainsi qu'une preuve. 1-b. Le point de vue de Turán - Compte-rendu détaillé des résultats de son article. 2-a. Une formule pour les polynômes trigonométriques analogue à celle de Gauss. 2-b. Une formule pour les polynômes trigonométriques analogue à celle de Turán. 3-a. Deux formules pour les fonctions entières de type exponentiel, analogues à celle de Gauss pour les polynômes. 3-b. Une formule pour les fonctions entières de type exponentiel, analogue à celle de Turán. 4-a. Annexe A - Notions de base sur les polynômes de Legendre. 4-b. Annexe B - Interpolation polynomiale. 4-c. Annexe C - Notions de base sur les fonctions entières de type exponentiel. 4-d. Annexe D - L'article de P. Turán.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.