925 resultados para Convex Duality
Resumo:
Problématique : Le rôle des paramédics se transforme partout dans le monde. Les besoins des aînés et des malades chroniques entraînent une forte proportion d’interventions préhospitalières non urgentes. La confrontation entre la perception et l’expérience du rôle peut entraîner un conflit correspondant à un stress organisationnel modéré et chronique chez ces travailleurs. Pour y faire face, différentes stratégies d’adaptation peuvent être adoptées. Objectifs : Cette étude vise à dépeindre la réalité des interventions préhospitalières non urgentes des paramédics québécois et à explorer son influence sur leur perception du rôle et les manifestations de cynisme et de désengagement. Méthode : Les données qualitatives obtenues en entrevues semi-structurées ont été codifiées et analysées à partir d’un modèle adapté des théories en psychosociologie du travail et d’administration de la santé (n=13, 3 régions, intervenants de - de 3 à + de 20 ans de carrière). Résultats : Les paramédics reconnaissent vivre un conflit de rôle alors que la formation et la définition de leur pratique se rapportent exclusivement à l’urgence, au contraire de leur expérience. Ils manifestent des attitudes de cynisme et de désengagement affectant la qualité des services, précisant qu’il s’agit d’une réalité inhérente à leur expérience professionnelle intimement reliée à l’épuisement professionnel, plus qu’à un manque fondamental de professionnalisme. Conclusion : Les paramédics décrivent différents mécanismes à instaurer qui visent à reconnaître la dualité conflictuelle de leur pratique dont, la mise en valeur de leur aptitude clinique à intervenir en première ligne dans un cadre préhospitalier non urgent ainsi que l’ajustement et le rehaussement des programmes de formation.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
La thèse comporte deux parties. Dans la première, constatant, d’une part, que les publications de référence à l’égard de la fiction télévisuelle québécoise sont rares, et que, d’autre part, les études télévisuelles souffrent d’un manque à penser l’esthétique de la fiction, elle avance une approche nouvelle. La fiction télévisuelle est l’objet d’une évolution esthétique portée par ses deux dispositifs et scandée en trois degrés d’expression. Elle évolue d’un dispositif où le son prévaut dans le cadre de la télé-audition à un autre dispositif où l’image prédomine au sein de la télé-vision. La fiction télévisuelle réalise ce parcours en trois degrés d’expression: du degré zéro, la monstration de la parole, nommé la télé-oralité, au second degré, l’image énonciative, nommé la télé-visualité, en passant par le premier degré, une oscillation transitoire, nommé la télé-dualité. Elle remédiatise le trajet du cinéma de fiction des premiers temps à l’auteurielité, un demi-siècle plus tard. Dans la seconde partie, la thèse applique le modèle théorique au corpus téléromanesque. Elle démontre que la fiction télévisuelle québécoise connait une évolution du téléroman à la sérietélé, en passant par la télésérie et par une trilogie épistémique. Au terme du parcours réflexif, une conclusion s’impose: le téléromanesque actuel participe de plain-pied à ce qui semble être, depuis le nouveau millénaire, l’Age d’art de la fiction télévisuelle.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
À la fin du siècle dernier, lorsque les mouvements féministes secouèrent les milieux intellectuels, les questionnements sur le genre se sont retrouvés au cœur des débats en sciences sociales et en archéologie. L’archéologie maya n’échappa pas à la règle et les femmes, jusque là restées dans l’ombre, retrouvèrent une visibilité. Ce mémoire a pour objectif de dégager la complexité des constructions sociales, symboliques et idéologiques de genre au sein des couches sociales les plus élevées de la société maya classique, en regroupant et en confrontant une bonne partie des données archéologiques, iconographiques, épigraphiques mais aussi ethnohistoriques répertoriées dans la littérature. Nos résultats défendent l’idée selon laquelle les relations et les identités de genres au sein des élites dirigeantes, mais également non dirigeantes, étaient construites autour d'un principe fondamental de la pensée maya : la dualité complémentaire.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Ce travail explore la dualité telle qu’elle se présente dans deux ouvrages d’André Gide, Les Caves du Vatican et Les Faux-Monnayeurs. Thème majeur de la littérature, le double ne cesse d’illustrer les différentes tensions qui se créent et se combattent chez une seule et même personne. Souvent représenté physiquement dans la littérature du XIXe siècle à la suite de la figure du Doppelgänger, le double chez Gide se complexifie : plus subtil, il se manifeste de manière psychologique. La dualité se présente de deux manières dans les écrits d’André Gide : chez les personnages et à travers la narration. Par l’étude des contradictions et des inconséquences des personnages, de la représentation de la dualité chez différents personnages, de leur dédoublement et de leurs doubles discours, il sera possible de constater à quel point les personnages structurent la dualité. L’analyse de l’identité des narrateurs, de leurs interventions et des figures de rhétorique qu’ils emploient permettra également de comprendre que plus ils se révèlent, plus ils se complexifient.
Resumo:
Le fullerène C60, une molécule sphérique, et le C70, un analogue ellisoïde, sont des composés aromatiques convexes constitués exclusivement d'atomes de carbone. La nature aromatique de la surface de ces cages de carbone rend possible leur association à l'état solide avec d'autres molécules aromatiques de topologie complémentaire. En particulier, l'association des fullerènes avec des composés présentant des motifs concaves aromatiques, via une association de type concave-convexe, est favorable. En effet, les interactions π•••π de type concave-convexe sont amplifiées grâce à la complémentarité topologique des partenaires impliqués. Le centrohexaindane est un hydrocarbure non planaire rigide qui a été synthétisé pour la première fois en 1988 par Kuck et collaborateurs. Cette molécule possède quatre surfaces aromatiques concaves orientées dans une géométrie tétraédrique qui sont susceptibles d'interagir favorablement avec les fullerènes. Nous avons ainsi avec succès cocristallisé le centrohexaindane avec les fullerènes C60 et C70. Puis, nous avons étudié les assemblages à l'état solide entre le centrohexaindane et les fullerènes par l'analyse des structures résolues via diffraction des rayons X. Les surfaces concaves aromatiques du centrohexaindane se sont révélées être propices à une association avec les fullerènes C60 et C70 via des interactions π•••π de type concave-convexe, tel que prévu. En outre, nous avons découvert que les liaisons C-H situées à la périphérie du centrohexaindane prennent part à une multitude de contacts C-H•••π avec les molécules de fullerène. Les échantillons de cocristaux composés de centrohexaindane et de fullerène ont aussi été caractérisés par diffraction de poudre des rayons X et par analyse thermogravimétrique dans le but d'en évaluer l'homogénéité.
Resumo:
To investigate the role of muscles in the development of adolescent idiopathic scoliosis (AIS), our group was initially interested in Duchenne muscular dystrophy (DMD) diseases where a muscular degeneration often leads to scoliosis. Few years ago the studies with those patients provided interesting results but were obtained only from few patients. To increase that number, the present project was initiated but recruitment of new DMD patients from Marie-Enfant hospital was found impossible. As an alternative, patients with Friedreich’s ataxia (FA) were recruited since they also suffer from a muscular deficiency which often induces a scoliosis. So, 4 FA patients and 4 healthy controls have been chosen to closely match the age, weight and body mass indexes (BMI) of the patients were enrolled in our experiments. As in the previous study, electromyography (EMG) activity of paraspinal muscles were recorded on each side of the spine during three types of contraction at 2 different maximum voluntary contractions (MVC). Moreover, the volume and skinfold thickness of these muscles were determined from ultrasound images (US) in order to facilitate the interpretation of EMG signals recorded on the skin surface. For the 3 FA right scoliotic patients, EMG activity was most of the time larger on the concave side of the deviation. The opposite was found for the 4th one (P4, left scoliosis, 32°) for whom EMG activity was larger on the convex side; it should however be noted that all his signals were of small amplitude. This was associated to a muscle weakness and a large skinfold thickness (12 mm) vs 7 mm for the 3 others. As for the paraspinal muscle volume, it was present on the convex side of P1, P3 and P4 and on the concave side for P2. As for skinfold thickness over this muscle, it was larger on the concave side for P1 and P2 and the opposite for P3 and P4. At the apex of each curve, the volume and skinfold thickness differences were the largest. Although the study covers only a small number of FA patients, the presence of larger EMG signals on the concave side of a spinal deformation is similar to pre-scoliotic DMD patients for whom the deformation is in its initial stage. It thus seems that our FA patients with more EMG activity on their concave side could see progression of their spinal deformation in the coming months in spite of their already important Cobb angle.
Resumo:
Les orientations ministérielles du Québec encouragent une pratique interprofessionnelle centrée sur le patient (ICP), au cours de la trajectoire de soins, pour soutenir les patients diagnostiqués d’un cancer. Cette pratique assure une meilleure communication entre les professionnels et la sécurité des patients, et améliore les soins et l'accès aux services (Santé Canada, 2010). Cependant, les études rapportent généralement les perceptions des professionnels en regard des soins et des services et informent sur les facteurs organisationnels, procéduraux et relationnels liés à cette pratique. Considérant l’importance de celle-ci, il semble nécessaire de la documenter selon les perceptions de patients, de proches et de professionnels dans un contexte réel de soins. L’étude avait pour but de décrire la pratique ICP au cours de la trajectoire de soins en oncologie. Pour soutenir cette description, l’adaptation du cadre de référence Person centred nursing framework (PCNF) de McCormack et McCance (2010) a été réalisée en incluant l’interprofessionnalité, telle que définie par Couturier (2009) et utilisée. Une étude qualitative de cas multiples a été réalisée auprès de deux équipes interprofessionnelles d’un centre hospitalier universitaire de la région de Montréal. L’échantillon (N=31) était composé de 8 patients, 3 proches, 18 professionnels et 2 gestionnaires. Vingt-huit entrevues ont été réalisées ainsi que 57,6 heures d’observation d’activités cliniques auxquelles participait le patient (ex., rendez-vous, traitement). Les résultats suggèrent que la pratique ICP des équipes est empreinte d’un dualisme de cultures (culture centrée sur le traitement versus culture davantage centrée sur le patient). De plus, les équipes étudiées ont présenté une pratique ICP fluctuante en raison de l’influence de nombreux facteurs tels le « fonctionnement de l’équipe », l’« environnement physique » et le « positionnement » des patients et des professionnels. Les résultats ont aussi suggéré que le déploiement des équipes de soins se fait à intensité variable au cours de la trajectoire. Il a été soulevé que les patients ont pu faire l’expérience d’une pratique ICP changeante, de bris dans la continuité des soins et de transition difficile entre les différentes périodes de la trajectoire. De plus, la description d’une pratique ICP souhaitée par les patients, leurs proches et les professionnels propose un accompagnement respectant le rythme du patient, sans prédominance des valeurs du professionnel ainsi qu’une assiduité dans la collaboration des membres de l’équipe. Cette étude suggère que les sciences infirmières peuvent ajouter aux connaissances interprofessionnelles actuelles en utilisant une perspective centrée sur le patient, perspective cohérente avec ses valeurs disciplinaires. De plus, de nombreuses pistes de réflexion sont proposées pour la pratique, la recherche, la gestion et la formation.
Resumo:
Les buts des recherches présentées dans cette thèse étaient d’évaluer le rôle de la stéréoscopie dans la reconnaissance de forme, dans la perception du relief et dans la constance de forme. La première étude a examiné le rôle de la stéréoscopie dans la perception des formes visuelles en utilisant une tâche de reconnaissance de formes. Les stimuli pouvaient être présentés en 2D, avec disparité normale (3D) ou avec disparité inversée. La performance de reconnaissance était meilleure avec les modes de présentation 2D et 3D qu’avec la 3D inversée. Cela indique que la stéréoscopie contribue à la reconnaissance de forme. La deuxième étude s’est intéressée à la contribution conjointe de l’ombrage et de la stéréoscopie dans la perception du relief des formes. Les stimuli étaient des images d’une forme 3D convexe synthétique présentée sous un point de vue menant à une ambigüité quant à sa convexité. L’illumination pouvait provenir du haut ou du bas et de la gauche ou de la droite, et les stimuli étaient présentés dichoptiquement avec soit de la disparité binoculaire normale, de la disparité inversée ou sans disparité entre les vues. Les participants ont répondu que les formes étaient convexes plus souvent lorsque la lumière provenait du haut que du bas, plus souvent avec la disparité normale qu’en 2D, et plus souvent avec absence de disparité qu’avec disparité inversée. Les effets de direction d’illumination et du mode de présentation étaient additifs, c’est-à-dire qu’ils n’interagissaient pas. Cela indique que l’ombrage et la stéréoscopie contribuent indépendamment à la perception du relief des formes. La troisième étude a évalué la contribution de la stéréoscopie à la constance de forme, et son interaction avec l’expertise perceptuelle. Elle a utilisé trois tâches de discrimination séquentielle de trombones tordus ayant subi des rotations en profondeur. Les stimuli pouvaient être présentés sans stéréoscopie, avec stéréoscopie normale ou avec stéréoscopie inversée. Dans la première moitié de l’Exp. 1, dans laquelle les variations du mode de présentation étaient intra-sujets, les performances étaient meilleures en 3D qu’en 2D et qu’en 3D inversée. Ces effets ont été renversés dans la seconde moitié de l’expérience, et les coûts de rotation sont devenus plus faibles pour la 2D et la 3D inversée que pour la 3D. Dans les Exps. 2 (variations intra-sujets du mode de présentation, avec un changement de stimuli au milieu de l’expérience) et 3 (variations inter-sujets du mode de présentation), les effets de rotation étaient en tout temps plus faibles avec stéréoscopie qu’avec stéréoscopie inversée et qu’en 2D, et plus faibles avec stéréoscopie inversée que sans stéréoscopie. Ces résultats indiquent que la stéréoscopie contribue à la constance de forme. Toutefois, cela demande qu’elle soit valide avec un niveau minimal de consistance, sinon elle devient stratégiquement ignorée. En bref, les trois études présentées dans cette thèse ont permis de montrer que la stéréoscopie contribue à la reconnaissance de forme, à la perception du relief et à la constance de forme. De plus, l’ombrage et la stéréoscopie sont intégrés linéairement.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.