990 resultados para Nearly Neutral Theory
Resumo:
Une multitude de recherches évaluatives ont démontré que les victimes de crime, qu’elles soient victimes d’un crime contre les biens ou contre la personne, apprécient l’approche réparatrice. Cependant, nous sommes toujours à la recherche des facteurs théoriques qui expliqueraient la satisfaction des victimes en ce qui concerne leur expérience avec les interventions réparatrices. La recherche décrite dans cette thèse concerne l’exploration des facteurs contribuant à la satisfaction des victimes de crime avec l’approche réparatrice ainsi que ses liens avec la théorie de justice procédurale. Selon la théorie de justice procédurale, la perception de justice n’est pas uniquement associée à l’appréciation du résultat d’une intervention, mais également à l’appréciation de la procédure, et que la procédure et le résultat peuvent être évalués de façon indépendante. Les procédures qui privilégient la confiance, la neutralité et le respect, ainsi que la participation et la voix des parties sont plus appréciées. Notre objectif de recherche était d’explorer l’analogie entre l’appréciation de la justice réparatrice et le concept de justice procédurale. En outre, nous avons voulu déterminer si la justice réparatrice surpasse, en termes de satisfaction, ceux prévus par la théorie de justice procédurale. Nous avons également examiné la différence dans l’appréciation de l’approche réparatrice selon le moment de l’application, soit avant ou après adjudication pénale. Ainsi, nous avons exploré le rôle d’une décision judiciaire dans l’évaluation de l’approche réparatrice. Pour répondre à nos objectifs de recherche, nous avons consulté des victimes de crime violent au sujet de leur expérience avec l’approche réparatrice. Nous avons mené des entrevues semi-directives avec des victimes de crime violent qui ont participé à une médiation auteur-victime, à une concertation réparatrice en groupe ou aux rencontres détenus-victimes au Canada (N=13) et en Belgique (N=21). Dans cet échantillon, 14 répondants ont participé à une intervention réparatrice avant adjudication judiciaire et 14 après adjudication. Nous avons observé que l’approche réparatrice semble être en analogie avec la théorie de justice procédurale. D’ailleurs, l’approche réparatrice dépasse les prémisses de la justice procédurale en étant flexible, en offrant de l’aide, en se concentrant sur le dialogue et en permettant d’aborder des raisons altruistes. Finalement, le moment de l’application, soit avant ou après adjudication, ne semble pas affecter l’appréciation des interventions réparatrices. Néanmoins, le rôle attribué à l’intervention réparatrice ainsi que l’effet sur l’évaluation du système judiciaire diffèrent selon le moment d’application. Les victimes suggèrent de continuer à développer l’approche réparatrice en tant que complément aux procédures judiciaires, plutôt qu’en tant que mesure alternative. Les témoignages des victimes servent la cause de l’offre réparatrice aux victimes de crime violent. L’offre réparatrice pourrait aussi être élargie aux différentes phases du système judiciaire. Cependant, la préférence pour l’approche réparatrice comme complément aux procédures judiciaires implique la nécessité d’investir également dans la capacité du système judiciaire de répondre aux besoins des victimes, tant sur le plan de la procédure que sur le plan du traitement par les autorités judiciaires.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Au Québec, près de 25 000 personnes, principalement des aînés, sont touchées par la maladie de Parkinson (MP), la majorité étant soignée par leur conjoint. Au stade modéré, la MP altère la santé et la qualité de vie de ces couples. Ce stade est propice à la mise en place d’interventions dyadiques, car les couples expérimentent des pertes croissantes, nécessitant plusieurs ajustements. Néanmoins, aucune étude n’avait encore examiné leurs besoins d’intervention lors de cette transition et peu d’interventions pour les soutenir ont fait l’objet d’études évaluatives. Avec comme cadre de référence la théorie de l’expérience de transition de Meleis et al. (2000) et l’approche systémique de Wright et Leahey (2009), cette étude visait à développer, mettre à l’essai et évaluer une intervention auprès de couples âgés vivant avec la MP au stade modéré. À cette fin, un devis qualitatif et une approche participative ont été privilégiés. L’élaboration et l’évaluation de l’intervention s’appuient sur le cadre méthodologique d’Intervention Mapping de Bartholomew et al. (2006) et sur les écrits de Miles et Huberman (2003). L’étude s’est déroulée dans une clinique ambulatoire spécialisée dans la MP. Dix couples et quatre intervenants ont collaboré à la conceptualisation de l’intervention. Trois nouveaux couples en ont fait l’expérimentation et l’évaluation. L’intervention dyadique compte sept rencontres de 90 minutes, aux deux semaines. Les principaux thèmes, les méthodes et les stratégies d’intervention sont basés sur les besoins et les objectifs des dyades ainsi que sur des théories et des écrits empiriques. L’intervention est orientée vers les préoccupations des dyades, la promotion de la santé, la résolution de problèmes, l’accès aux ressources, la communication et l’ajustement des rôles. Les résultats de l’étude ont montré la faisabilité, l’acceptabilité et l’utilité de l’intervention. Les principales améliorations notées par les dyades sont l’adoption de comportements de santé, la recherche de solutions ajustées aux situations rencontrées et profitables aux deux partenaires, la capacité de faire appel à des services et l’accroissement des sentiments de maîtrise, de soutien mutuel, de plaisir et d’espoir. Cette étude fournit des pistes aux infirmières, engagées dans différents champs de pratique, pour développer et évaluer des interventions dyadiques écologiquement et théoriquement fondées.
Resumo:
La diversification des signaux aposématiques dans un cadre de mimétisme müllérien est un phénomène intrigant. Alors que la théorie relative à l'aposématisme et au mimétisme suggère l'évolution vers un signal aposématique unique, d'impressionnantes variations peuvent être observées entre les populations, et cela à petite échelle spatiale. Il a été supposé que la variation spatiale des pressions de sélection engendrées par différents prédateurs puisse être à l'origine de ce phénomène. Afin de tester cette hypothèse, nous avons étudié la transition entre deux systèmes géographiques caractérisés par des patrons aposématiques distincts chez des grenouilles mimétiques et toxiques du nord du Pérou (Dendrobatidae) en combinant les outils de génétique des populations aux outils écologiques. Dans chacun de ces systèmes, Ranitomeya imitator vit en sympatrie avec R. ventrimaculata ou R. variabilis. Il s'agit du principal exemple empirique suggérant que dans un cadre de mimétisme müllérien, il n'y a pas convergence des signaux aposématiques des deux espèces, mais plutôt convergence unidirectionnelle où R. imitator, étant polymorphe, imite des espèces monomorphes avec lesquelles elle est sympatrique. Premièrement, les résultats réfutent les prémisses qui suggèrent que R. imitator converge vers le signal aposématique d’une autre espèce. La haute similarité génétique entre les espèces modèles suggère qu'elles ont divergé plus récemment que les populations de R. imitator ou qu'elles sont encore connectées par du flux génique. Ces résultats indiquent que ces espèces ont été identifiées à tort comme des espèces différentes. De fait, l'identification de l'espèce imitatrice basée sur la variabilité phénotypique est invalidée dans ce système puisque R. imitator et R. variabilis/ventrimaculata démontrent la même variabilité. Deuxièmement, nos résultats démontrent que la prédation varie spatialement, autant en intensité qu'en direction, créant ainsi un paysage hétérogène de pressions de sélection. Ainsi, de fortes pressions de prédation stabilisatrice permettent le maintien de l'organisation géographique de différents signaux aposématiques et expliquent l'uniformité de ces signaux ainsi que les relations mimétiques. Par contre, le relâchement temporaire des pressions de prédation permet l'apparition de nouveaux phénotypes aposématiques via les processus évolutifs neutres, conduisant à un haut polymorphisme au niveau de ces populations. L'interaction de ces modes sélectifs nous a permis de démontrer pour la première fois comment la théorie évolutive de Wright (shifting balance theory) permet la diversification adaptative dans un système naturel. Pour conclure, cette étude a permis de mettre en évidence à quel point les systèmes de mimétisme müllérien peuvent être dynamiques. L'alternance spatiale entre les processus évolutifs neutres et la sélection naturelle permet l'émergence de nouveaux phénotypes aposématiques à une échelle locale, ainsi que l'apparition d'une organisation géographique des signaux d'avertissement et des relations de mimétisme müllérien.
Resumo:
Les théories implicites (TIs) sont des croyances sous-jacentes et interconnectées qui influencent les pensées conscientes et le comportement (Ward, 2000). Elles ont été étudiées chez les délinquants et les délinquantes sexuels, ainsi que chez les délinquants violents, mais pas chez les délinquantes violentes. La recherche montre que les cognitions des délinquants violents peuvent être organisées en quatre TIs: 1) Battre ou être battu, 2) Je suis la loi, 3) La violence est normale, et 4) Je perds le contrôle (Polaschek, Calvert & Gannon , 2008). L’objectif de la présente étude était de déterminer quelles sont les TIs des délinquantes violentes afin de mieux comprendre leur comportement. Des entrevues semi structurées ont été menées avec 21 femmes violentes incarcérées. Dans l'analyse, les cognitions des participantes ont été extraites en utilisant l’analyse du discours (Angers, 2005). Ces cognitions ont ensuite été plus profondément analysées pour en ressortir les TIs en suivant la méthode de la théorisation ancrée (Strauss & Corbin, 1990). Les résultats suggèrent qu’il existe six théories implicites liées au comportement violent des femmes. Deux d'entre elles sont neutres, car aussi retrouvées chez les hommes: 1) la violence est normale et 2) je perds le contrôle. Les quatre autres sont sexo-spécifiques: 3) ceux qui agissent injustement méritent d'être battus, 4) j'ai besoin de me protéger et protéger les autres, 5) je ne suis pas violente, et 6) ma vie est trop difficile. En outre, les résultats suggèrent qu'il existe deux groupes distincts d’agresseures en ce qui concerne les cognitions: les « antisociales » et les « classiques ». Les implications et explications théoriques de nos résultats seront discutées.
Resumo:
La logique contemporaine a connu de nombreux développements au cours de la seconde moitié du siècle dernier. Le plus sensationnel est celui de la logique modale et de sa sémantique des mondes possibles (SMP) dû à Saul Kripke dans les années soixante. Ces dans ce cadre que David Lewis exposera sa sémantique des contrefactuels (SCF). Celle-ci constitue une véritable excroissance de l’architecture kripkéenne. Mais sur quoi finalement repose l’architecture kripkéenne elle-même ? Il semble bien que la réponse soit celle d’une ontologie raffinée ultimement basée sur la notion de mondes possible. Ce mémoire comporte quatre objectifs. Dans un premier temps, nous allons étudier ce qui distingue les contrefactuels des autres conditionnels et faire un survol historique de la littérature concernant les contrefactuels et leur application dans différent champs du savoir comme la philosophie des sciences et l’informatique. Dans un deuxième temps, nous ferons un exposé systématique de la théorie de Lewis telle qu’elle est exposée dans son ouvrage Counterfactuals. Finalement, nous allons explorer la fondation métaphysique des mondes possible de David Lewis dans son conception de Réalisme Modal.
Resumo:
Ce mémoire porte sur l’articulation de la morale en droit. Il soulève la question de l’objectivité de la morale dans la théorie du droit de Ronald Dworkin. Celui-ci doit pouvoir établir les critères de justification de la morale pour asseoir son autorité en droit. Il conteste la validité de la règle de reconnaissance de Hart qui exclue la morale comme source et comme justification inhérente au droit. Dans son dernier livre, Justice for Hedgehogs (2011), Dworkin présente sa thèse de l’unité de valeur entre le droit, la morale personnelle et la morale politique. Pour réussir à intégrer la morale au droit, il doit en défendre l’objectivité. Il développe une conception de la rationalité pratique et de la vérité propre à la morale. Sa conception de la rationalité pratique est rapprochée de celle d’Alasdair MacIntyre. Celui-ci rejette la prétention issue des Lumières d’une rationalité pratique universelle et neutre. Il développe une conception de la rationalité pratique fondée sur le concept de tradition d’investigation. Il fait l’histoire des principales traditions d’investigation depuis l’antiquité jusqu’à aujourd’hui. Il considère la tradition aristotélicienne supérieure, celle-ci réussissant mieux à donner objectivité et intelligibilité à la morale. Des points de convergence ou de divergence sont identifiés dans les conceptions de la morale de Dworkin et de MacIntyre. Ce rapprochement porte sur leurs positions respectives face aux principaux fondements théoriques en philosophie morale, leurs conceptions de la rationalité pratique et leurs définitions des notions de droit et de justice.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’approche des capabilités a été caractérisée par un développement fulgurant au cours des vingt-cinq dernières années. Bien que formulée à l’origine par Amartya Sen, détenteur du Prix Nobel en économie, Martha Nussbaum reprit cette approche dans le but de s’en servir comme fondation pour une théorie éthico-politique intégrale du bien. Cependant, la version de Nussbaum s’avéra particulièrement vulnérable à plusieurs critiques importantes, mettant sérieusement en doute son efficacité globale. À la lumière de ces faits, cette thèse vise à évaluer la pertinence théorique et pratique de l’approche des capabilités de Nussbaum, en examinant trois groupes de critiques particulièrement percutantes formulées à son encontre.
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Traduction du titre en anglais: Making sense of governance in non-formal education : A critical analysis of the Senegalese faire faire strategy
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Cette thèse a fait l'objet d'une publication: Le nouveau sujet du droit criminel : effets secondaires de la psychiatrie sur la responsabilité pénale / Christian Saint-Germain. — Montréal : Liber, [2014]. — 358 pages ; 23 cm. ISBN 9782895784654.
Resumo:
Le contrôle psychologique parental est un facteur de risque réputé pour les problèmes intériorisés des enfants (p. ex., Affrunti & Ginsburg, 2011; McLeod, Wood & Weisz, 2007). Selon la Théorie de l'auto-détermination, le contrôle psychologique mène aux problèmes intériorisés (Ryan, Deci, Grolnick, & La Guardia, 2006) car il brime le besoin fondamental d'autonomie. En effet, recevoir de la pression afin de penser, se comporter et se sentir d’une certaine façon (Ryan, 1982) semble favoriser une régulation trop rigide et surcontrôlée (Ryan et al., 2006). Suite aux travaux de Soenens et Vansteenkiste (2010), la distinction conceptuelle entre deux formes de contrôle psychologique, soit manifestes (p. ex., les menaces, forcer physiquement) et dissimulées (p. ex., la surprotection, le marchandage), ont été utilisées pour évaluer le style parental (Étude 1) et les pratiques disciplinaires (Étude 2). Le contrôle psychologique parental et le soutien de l'autonomie (Étude 2) ont été mesurés durant la petite enfance puisque (1) les problèmes intériorisés émergent tôt, (2) le développement du sentiment d'autonomie est central au cours de cette période, et (3) attire probablement plus de contrôle psychologique parental. Avec ses deux articles, la présente thèse vise à clarifier la façon dont le contrôle psychologique manifeste et dissimulé est lié au développement précoce de problèmes intériorisés. L'étude 1 est une étude populationnelle examinant l'impact relatif du style parental sur des trajectoires développementales d'anxiété (N = 2 120 enfants; de 2,5 à 8 ans) avec de nombreux facteurs de risque potentiels provenant de l'enfant, de la mère et de la famille, tous mesurés au cours de la petite enfance. Les résultats ont montré qu'en plus de la timidité des enfants, de la dépression maternelle et du dysfonctionnement familial, le contrôle psychologique manifeste (c.-à-d., coercitif) et dissimulé (c.-à-d., la surprotection) augmentent le risque, pour les enfants, de suivre une trajectoire d'anxiété élevée. Une interaction entre la dépression maternelle et le contrôle dissimulé a été trouvée, ce qui indique que la surprotection augmente l'anxiété des enfants seulement lorsque la dépression maternelle est élevée. Enfin, le contrôle dissimulé prédit également l'anxiété telle que rapportée par les enseignants de deuxième année. Le deuxième article est une étude observationnelle qui examine comment l'autorégulation (AR) des bambins est liée au développement précoce des symptômes intériorisés, tout en explorant comment les pratiques disciplinaires parentales (contrôle et soutien de l'autonomie) y sont associées. Les pratiques parentales ont été codifiées lors d'une requête de rangement à 2 ans (contexte "Do", N = 102), tandis que l'AR des bambins a été codifiée à la fois durant la tâche de rangement ("Do") et durant une tâche d'interdiction (ne pas toucher à des jouets attrayants; contexte «Don't » ), à 2 ans puis à 3 ans. Les symptômes d'anxiété / dépression des enfants ont été évalués par leurs parents à 4,5 ans. Les résultats ont révélé que l'AR aux interdictions à 3 ans diminue la probabilité des enfants à manifester des taux élevés de symptômes d'anxiété / dépression. Les analyses ont aussi révélé que le parentage soutenant l'autonomie était lié à l'AR des enfants aux requêtes, un an plus tard. En revanche, le contrôle psychologique manifeste et dissimulé ont eu des effets délétères sur l'AR. Enfin, seul le contrôle dissimulé a augmenté les probabilités de présenter des niveaux plus élevés de problèmes intériorisés et ce, au-delà de l’effet protecteur de l'AR des bambins. Des résultats mitigés sont issus de cette thèse concernant les effets respectifs des deux formes de contrôle sur les problèmes intériorisés, dépendamment de l'informateur (mère c. enseignant) et de la méthodologie (questionnaires c. données observationnelles). Toutefois, le contrôle psychologique dissimulé était lié à ce problème affectif dans les deux études. Enfin, le soutien à l'autonomie s’est révélé être un facteur de protection potentiel et mériterait d'être étudié davantage.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.