998 resultados para Econométrie et méthodes statistiques :théorie et applications
Resumo:
Ce mémoire a pour objectif de comprendre la situation de l’emploi et le salaire pour les diplômés universitaires en Chine à l’entrée du marché de travail pendant les dernières années. Après la revue de littérature, nous avons supposé trois hypothèses sur la compétence personnelle basée sur la théorie du capital humain. Dans cette recherche, les données retenues proviennent de deux sources : (1) les canaux officiels, y inclus les rapports diffusés et les statistiques publiées par le ministère de l’Éducation ou le Bureau national des Statistiques en Chine. (2) les canaux non gouvernementaux, soit les institutions d’enquêtes indépendantes et les organisations académiques en Chine. Nos résultats d’observation nous permettent de constater que les diplômés chinois sont exposés à une vive concurrence dans un marché où l’offre de travail y est excédentaire. Les caractéristiques personnelles, la qualité de l’enseignement, le niveau de scolarité et la discipline d’étude, peuvent affecter dans une certaine mesure l’emploi et le salaire de départ. Finalement, nous concluons ce mémoire avec des propositions de pistes de solution aux caractéristiques chinoises qui visent à réduire la difficulté d’emplois des diplômés.
Resumo:
Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention de la maîtrise en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Modes de conceptualisation métaphoriques et théorie de l’évolution : analyse textuelle et traduction
Resumo:
Éminent naturaliste du XIXe siècle, Charles Darwin publie en 1859 ce qui s'avérera être l’un des textes fondateurs des sciences de la vie : On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life (ou OS). Ce volumineux ouvrage pose les assises conceptuelles de la théorie darwinienne de l'évolution. Cette dernière suscite encore de nos jours la controverse : certains la nient (créationnisme, dessein intelligent, etc.) alors que d'autres la poussent à l'extrême (eugénisme, darwinisme social, etc.). Vu la grande portée de l'OS, le problème de sa traduction en français se présente de lui-même. Ce champ d'étude reste pourtant largement inexploré. Nous avons donc choisi, dans le présent travail, d’étudier les traductions françaises de l’OS. Notre étude s’inscrivant dans un axe de recherche qui s’intéresse aux modes de conceptualisation métaphorique en usage dans les domaines biomédicaux, ainsi qu’aux problèmes de traduction qu’ils soulèvent, nous avons choisi de nous concentrer plus particulièrement sur les modes de conceptualisation métaphorique présents dans le texte de l'OS, et sur la manière dont ils ont été traduits en français. Pour mener à bien ce projet, nous avons élaboré une méthodologie à partir de celle déjà utilisée avec succès dans des études antérieures menées au sein du même axe de recherche que le nôtre. En plus de l’annotation et l’interrogation informatisée de notre corpus, cette méthodologie consiste en la mise en relation, au plan informatique, de plusieurs traductions d’un même texte. De par sa complexité technique, son élaboration constitue l’un des objectifs majeurs de notre étude. Les résultats obtenus nous ont permis de confirmer deux de nos trois hypothèses : 1) la totalité des modes de conceptualisation identifiés dans notre corpus anglais se retrouvent également dans chacune des traductions, et 2) aucun mode de conceptualisation métaphorique ne peut être dégagé des traductions françaises qui n’est pas déjà présent dans l’original anglais. En plus de nous permettre de comparer chaque traduction à l’original anglais, ces résultats nous ont également permis de comparer entre elles les différentes traductions françaises de l’OS. Ce mémoire de maîtrise comporte six chapitres, qui correspondent tour à tour à : notre cadre théorique, l'état de la question, nos hypothèses et nos objectifs, notre méthodologie, nos résultats et la discussion de ces résultats.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) option expertise-conseil en soins infirmiers
Resumo:
Les diagrammes de transitions d'états ont été réalisés avec le logiciel Latex.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les dyskinésies tardives (DT) sont des troubles moteurs associés à l’utilisation chronique des antagonistes des récepteurs dopaminergiques D2 tels que les antipsychotiques et le métoclopramide. Ces dyskinésies correspondent à une incoordination motrice portant préférentiellement sur la musculature oro-faciale. La gestion des DT s'est imposée comme défi de santé publique surtout en l’absence d’une alternative thérapeutique efficace et abordable. L’hypothèse classiquement avancée pour expliquer la physiopathologie des DT inhérente au traitement par les antipsychotiques s’articule autour de l’hypersensibilité des récepteurs dopaminergiques D2, cibles principales de ces molécules. Néanmoins, plusieurs données remettent la véracité de cette hypothèse en question. Hypothèse: nous proposons que le blocage chronique des récepteurs dopaminergiques soit effectivement responsable d’un phénomène d’hypersensibilisation mais contrairement à l’hypothèse classique, cette hypersensibilisation porterait sur des paramètres de la transmission dopaminergique autres que les récepteurs D2. De même nous postulons que cette hypersensibilisation se traduirait par des altérations des cascades signalétiques au niveau des cellules du striatum. Ces altérations aboutissent à des changements portant sur le récepteur nucléaire (Nur77), qui est hautement associé au système dopaminergique; l’induction de ces récepteurs déclencherait des cascades associées à la compensation ou à la genèse des DT. Matériels et méthodes: 23 femelles Cebus apella, réparties en 3 groupes: groupe halopéridol, groupe clozapine, et groupe contrôle, ont été exposées aux traitements respectifs pendant 6-36 mois. Après l’analyse comportementale, les animaux ont été décapités et leurs cerveaux isolés pour fin d’analyse. Hybridation in situ: nous avons fait appel à cette technique pour mesurer l’expression de l’ARNm de Nur77 et du neuropeptide enképhaline. Hybridation in situ double: nous avons exploités cette technique pour identifier les populations neuronales exprimant les récepteurs dopaminergiques D3 et localiser leur éventuelle induction. Autoradiographies des récepteurs dopaminergiques D1, D2 et D3 et autoradiographies des récepteurs i glutamatergiques mGluR5. Ces autoradiographies avaient pour objectif d’évaluer l’expression de ces différents récepteurs. Mutagenèse dirigée et transfection cellulaire: nous faisons appel à ces techniques pour reproduire le polymorphisme identifié au niveau de la région 3’UTR de l’ARNm Nur77 et évaluer l’impact que pourrait avoir ce polymorphisme sur la stabilité de l’ARNm Nur77 sinon sur l’expression de la protèine Nur77. Western Blot des kinases ERK 1 et 2: cette technique nous a servi comme moyen pour quantifier l’expression globale de ces kinases. Analyses statistiques: l’expression de l’ARNm Nur77 a été évaluée en utilisant l’analyse de la variance à un seul facteur (One way ANOVA). Nous avons procédé de la même façon pour mesurer l’expression des récepteurs D2, D3 et mGluR5. Résultats: le groupe des animaux traités par l’halopéridol montre une plus forte expression des récepteurs D3 par rapport aux sujets des autres groupes. Cette expression se produit au niveau des neurones de la voie directe. De plus, cette augmentation corrèle positivement avec la sévérité des DT. L’expression des récepteurs D2 et mGluR5 reste relativement inchangée entre les différents groupes, alors qu’un gradient d’expression a été observé pour le récepteur D1. Par ailleurs, Nur77 est induit par l’halopéridol, alors que son expression semble baisser chez les animaux traités par la clozapine. L’induction de l’expression de Nur77 par l’halopéridol est plus accrue chez les animaux non dyskinétiques. Les animaux traités par la clozapine démontrent une expression amoindrie de l’ARNm de Nur77 qui tend à être plus faible que l’expression de base. D’autre part, la présence du polymorphisme au niveau de la région 3’UTR semble affecter l’expression cellulaire de Nur77. Conclusion: ces résultats confortent notre hypothèse concernant l’existence d’un phénomène d’hypersensibilisation prenant place suite un traitement chronique par les antipsychotiques. Ce phénomène s’est traduit par une augmentation de l’expression des récepteurs D3 sans porter sur les récepteurs D2 tel que prôné classiquement. Cette hypersensibilisation des récepteurs D3 implique également l’existence d’un débalancement des voies striatales pouvant ainsi sous tendre l’apparition des DT. Ces résultats dévoilent ainsi un nouveau mécanisme qui pourrait contribuer à l’apparition des DT et pourraient permettre une meilleure gestion, nous l’espérons, des DT à l’échelle clinique.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.