991 resultados para Cathedral chapters


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse identifie une cooccurrence des discours à propos de l’hypersexualisation des jeunes filles et ceux concernant le port du voile islamique qui sont, depuis quelques années, au cœur des préoccupations sociales au Québec comme ailleurs en Occident. Plus spécifiquement, elle propose une « économie générale des discours » (Foucault, 1976) contemporains sur l’hypersexualisation et le port du voile, dans une perspective conjoncturelle, par et à travers trois contextes d'analyse particuliers : féministe, médiatique et public. Elle démontre comment l’hypersexualisation et le port du voile sont problématisés (Foucault, 2001/1984), c'est-à-dire qu’ils sont posés comme nouveaux problèmes sociaux engendrant et cristallisant bon nombre de craintes et d’anxiétés contemporaines. Ainsi, la thèse est composée de trois chapitres centraux qui reprennent chacun des contextes de problématisation identifiés. Le chapitre intitulé « Féminisme(s) et égalité des sexes », avance que l’égalité des sexes est invoquée comme valeur moderne, féministe et québécoise par excellence et qu’elle participe, à ce titre, de la problématisation du port du voile et de l’hypersexualisation. Le chapitre suivant, « Médias, diversité et (hyper) visibilité », concentre l’analyse sur les médias et la culture populaire, à la fois sujets énonciateurs, régimes et objets de discours, participant à construire et à délimiter l’adolescence et la religion/culture musulmane comme des mondes à part, mystérieux, tout en les exposant au public. Enfin, à partir d’une analyse des discours publics à propos de l’hypersexualisation et du port du voile, le chapitre intitulé « Laïcité, sexualité et neutralité » met en lumière les façons par lesquelles ces problèmes sont constitutifs de chartes, de codes et d’autres formes de règlementations qui viennent non seulement normaliser mais également discipliner la conduite de chacun, au nom du bien commun et de la neutralité de l’État. Un « Retour sur la conjoncture » vient conclure la thèse en mettant en lumière certains éléments conjoncturels qui traversent ses principaux chapitres, dont les questions du consensus et de l’extrême.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat porte sur la phénoménologie visuelle et auditive dans la poésie du poète romantique Britannique William Wordsworth. Je soutiens que l’œil, bien qu’il soit usurpateur, joue un rôle fondateur dans le développement de la conscience chez ce poète. L’oreille, quant à elle, souvent présentée comme organe rédempteur, a aussi des imperfections. Ensemble, l’œil et l’oreille, dépassent leurs imperfections respectives et joignent leurs forces dans la construction du poème et, au- delà de cela, à la construction de la conscience du poète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les supercapacités hybrides se taillent de plus en plus une place dans le secteur des énergies renouvelables. L’oxyde de manganèse possède certaines caractéristiques (faible coût, caractère écologique et une capacitance spécifique supérieure) qui font de ce dernier un matériau très attirant pour l’assemblage de tels dispositifs. Ce mémoire, divisé en trois parties, propose l’utilisation des liquides ioniques protiques comme électrolytes pour l’assemblage de supercapacités hybrides à base d’oxyde de manganèse et carbone. D’abord, le comportement pseudocapacitif des électrodes à base de films minces d’oxyde de manganèse dans les liquides ioniques protiques ainsi que leurs propriétés optiques sont étudiés et évalués. Des valeurs de capacitance spécifique allant jusqu’à 397 F/g ont été trouvées dans cette partie. Ensuite, des mélanges composés par un solvant organique (acétonitrile) et le liquide ionique protique sont présentés comme une manière de contourner la faible conductivité de ce dernier qui limite les valeurs de capacitance spécifique à obtenir. Une amélioration de la capacitance spécifique d’environ 30% est reportée dans ce chapitre. Finalement, l’assemblage d’une supercapacité hybride est présenté comme une stratégie efficace qui permet l’élargissement de la faible fenêtre de potentiel de travail obtenue avec les électrodes à base d’oxyde de manganèse. De cette façon, la faisabilité de tel arrangement est montré ici, obtenant de valeurs de capacitance spécifique (16 F/g) ainsi que de puissance (81 W/kg) et d’énergie spécifique (1,9 Wh/kg) acceptables en utilisant des liquides ioniques protiques comme électrolytes de remplissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude offre une lecture de The Waves de Virginia Woolf en tant qu’une représentation fictive des “formes exactes de la pensée.” Elle établit le lien entre le récit de The Waves et l’expérience personnelle de l’auteur avec “les voix” qui hantaient son esprit, en raison de sa maladie maniaco-dépressive. La présente étude propose également une analyse du roman inspirée par la théorie de la “fusion conceptuelle:” cette approche narrative a pour but de (1) souligner “la fusion” de l’imagination, des émotions, et de la perception qui constitue l’essence du récit de The Waves, (2) mettre l’accent sur les “configurations mentales” subtilement développées par/entre les voix du récit, en vue de diminuer le semblant de la désorganisation et de l’éparpillement des pensées généré par la représentation de la conscience, (3) permettre au lecteur d’accéder à la configuration subjective et identitaire des différentes voix du récit en traçant l’éventail de leurs pensées “fusionnées.” L’argument de cette dissertation est subdivisé en trois chapitres: le premier chapitre emploie la théorie de la fusion conceptuelle afin de souligner les processus mentaux menant à la création de “moments de vision.” Il décrit la manière dont la fusion des pensées intérieures et de la perception dans les “moments de vision” pourrait servir de tremplin à la configuration subjective des voix du récit. La deuxième section interprète l’ensemble des voix du roman en tant qu’une “société de soi-mêmes.” À l’aide de la théorie de la fusion conceptuelle, elle met l’accent sur les formes de pensée entrelacées entre les différentes voix du récit, ce qui permet aux protagonistes de développer une identité interrelationnelle, placée au plein centre des différentes subjectivités. Le troisième chapitre trace les processus mentaux permettant aux différentes voix du roman de développer une forme de subjectivité cohérente et intégrée. Dans ce chapitre, l’idée de la fusion des différents aspects de l’identité proposée par Fauconnier et Turner est employée pour décrire l’intégration des éléments de la subjectivité des protagonistes en une seule configuration identitaire. D’ailleurs, ce chapitre propose une interprétation du triste suicide de Rhoda qui met en relief son inaptitude à intégrer les fragments de sa subjectivité en une identité cohérente et “fusionnée.”

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la pratique du nom propre dans quatre romans de l'auteure québécoise Suzanne Jacob : Laura Laur (1983), La Passion selon Galatée (1987), Rouge, mère et fils (2001) et Fugueuses (2005). À partir du postulat de Suzanne Jacob qui affirme que la réalité se compose de conventions, cette étude s'efforce de mettre à l'épreuve l'hypothèse selon laquelle le nom propre est une fiction. À l'aide de balises méthodologiques privilégiant la narratologie et la pragmatique, l'analyse, constituée de lectures microtextuelles, s'intéresse aux commentaires des personnages et de la narration sur le nom, en plus de relever les procédés qui encadrent et mettent en lumière le fonctionnement du nom, autant d'un point de vue sémantique que syntaxique. C'est donc dire que le nom est abordé dans le réseau des différents signes du texte et non pas comme un signifiant isolé. L'étude se divise en trois chapitres consacrés à des problématiques structurantes du nom propre chez Jacob : « L'omniprésence du nom », « L'instabilité du nom » et « Le nom performé ? » À partir de ces trois axes, la réflexion ouvre sur des enjeux plus vastes qui concernent autant l'identité que les relations sociales et familiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Collège Saint-Viateur de Ouagadougou est une école catholique dont la mission est d’évangéliser les jeunes qui le fréquentent tout en leur assurant une éducation chrétienne de qualité. Or, en plus des catholiques, beaucoup de ses élèves sont musulmans, chrétiens protestants et animistes. Alors, on est en présence d’une diversité religieuse au sein de cette communauté éducative. Comme cette situation est acceptée et reconnue, on peut parler de pluralisme religieux. Dans ce contexte, jaillit la question de savoir s’il est toujours pertinent d’évangéliser les jeunes catholiques et membres des autres religions ou s’il faut simplement les éduquer afin qu’ils soient de meilleurs humains dans leur propre religion. Autour cette question se déroule une aventure de recherche en cinq chapitres correspondant aux cinq étapes de la praxéologie pastorale. Le premier chapitre campe le portrait de la communauté éducative du Collège Saint-Viateur dans le contexte pluriel du Burkina Faso et dégage les forces et faiblesses de la manière dont est gérée la diversité religieuse en son sein. Le deuxième pose la problématique de la pertinence de l’évangélisation des jeunes de religions différentes en assurant leur éducation chrétienne. Le troisième expose une herméneutique de l’acte d’évangéliser des jeunes en tenant compte de la perspective théologique positive du pluralisme religieux mise en rapport avec le magistère de l’Église sur l’éducation chrétienne des jeunes. Le quatrième formule quatre propositions pour que l’évangélisation de la jeunesse en ce contexte de pluralité religieuse ait le sens d’une éducation intégrale pour amener les jeunes à devenir de meilleurs humains dans leur propre foi. Le cinquième, enfin, émet les espérances et dégage les effets bénéfiques d’une culture du pluralisme religieux chez les jeunes au Collège Saint-Viateur de Ouagadougou. Cette culture constituerait en même temps une prophylaxie évangélique contre l’intégrisme religieux au sein de la communauté éducative et dans la société burkinabè.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, je me suis interessé à l’identification partielle des effets de traitements dans différents modèles de choix discrets avec traitements endogènes. Les modèles d’effets de traitement ont pour but de mesurer l’impact de certaines interventions sur certaines variables d’intérêt. Le type de traitement et la variable d’intérêt peuvent être défini de manière générale afin de pouvoir être appliqué à plusieurs différents contextes. Il y a plusieurs exemples de traitement en économie du travail, de la santé, de l’éducation, ou en organisation industrielle telle que les programmes de formation à l’emploi, les techniques médicales, l’investissement en recherche et développement, ou l’appartenance à un syndicat. La décision d’être traité ou pas n’est généralement pas aléatoire mais est basée sur des choix et des préférences individuelles. Dans un tel contexte, mesurer l’effet du traitement devient problématique car il faut tenir compte du biais de sélection. Plusieurs versions paramétriques de ces modèles ont été largement étudiées dans la littérature, cependant dans les modèles à variation discrète, la paramétrisation est une source importante d’identification. Dans un tel contexte, il est donc difficile de savoir si les résultats empiriques obtenus sont guidés par les données ou par la paramétrisation imposée au modèle. Etant donné, que les formes paramétriques proposées pour ces types de modèles n’ont généralement pas de fondement économique, je propose dans cette thèse de regarder la version nonparamétrique de ces modèles. Ceci permettra donc de proposer des politiques économiques plus robustes. La principale difficulté dans l’identification nonparamétrique de fonctions structurelles, est le fait que la structure suggérée ne permet pas d’identifier un unique processus générateur des données et ceci peut être du soit à la présence d’équilibres multiples ou soit à des contraintes sur les observables. Dans de telles situations, les méthodes d’identifications traditionnelles deviennent inapplicable d’où le récent développement de la littérature sur l’identification dans les modèles incomplets. Cette littérature porte une attention particuliere à l’identification de l’ensemble des fonctions structurelles d’intérêt qui sont compatibles avec la vraie distribution des données, cet ensemble est appelé : l’ensemble identifié. Par conséquent, dans le premier chapitre de la thèse, je caractérise l’ensemble identifié pour les effets de traitements dans le modèle triangulaire binaire. Dans le second chapitre, je considère le modèle de Roy discret. Je caractérise l’ensemble identifié pour les effets de traitements dans un modèle de choix de secteur lorsque la variable d’intérêt est discrète. Les hypothèses de sélection du secteur comprennent le choix de sélection simple, étendu et généralisé de Roy. Dans le dernier chapitre, je considère un modèle à variable dépendante binaire avec plusieurs dimensions d’hétérogéneité, tels que les jeux d’entrées ou de participation. je caractérise l’ensemble identifié pour les fonctions de profits des firmes dans un jeux avec deux firmes et à information complète. Dans tout les chapitres, l’ensemble identifié des fonctions d’intérêt sont écrites sous formes de bornes et assez simple pour être estimées à partir des méthodes d’inférence existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Éminent naturaliste du XIXe siècle, Charles Darwin publie en 1859 ce qui s'avérera être l’un des textes fondateurs des sciences de la vie : On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life (ou OS). Ce volumineux ouvrage pose les assises conceptuelles de la théorie darwinienne de l'évolution. Cette dernière suscite encore de nos jours la controverse : certains la nient (créationnisme, dessein intelligent, etc.) alors que d'autres la poussent à l'extrême (eugénisme, darwinisme social, etc.). Vu la grande portée de l'OS, le problème de sa traduction en français se présente de lui-même. Ce champ d'étude reste pourtant largement inexploré. Nous avons donc choisi, dans le présent travail, d’étudier les traductions françaises de l’OS. Notre étude s’inscrivant dans un axe de recherche qui s’intéresse aux modes de conceptualisation métaphorique en usage dans les domaines biomédicaux, ainsi qu’aux problèmes de traduction qu’ils soulèvent, nous avons choisi de nous concentrer plus particulièrement sur les modes de conceptualisation métaphorique présents dans le texte de l'OS, et sur la manière dont ils ont été traduits en français. Pour mener à bien ce projet, nous avons élaboré une méthodologie à partir de celle déjà utilisée avec succès dans des études antérieures menées au sein du même axe de recherche que le nôtre. En plus de l’annotation et l’interrogation informatisée de notre corpus, cette méthodologie consiste en la mise en relation, au plan informatique, de plusieurs traductions d’un même texte. De par sa complexité technique, son élaboration constitue l’un des objectifs majeurs de notre étude. Les résultats obtenus nous ont permis de confirmer deux de nos trois hypothèses : 1) la totalité des modes de conceptualisation identifiés dans notre corpus anglais se retrouvent également dans chacune des traductions, et 2) aucun mode de conceptualisation métaphorique ne peut être dégagé des traductions françaises qui n’est pas déjà présent dans l’original anglais. En plus de nous permettre de comparer chaque traduction à l’original anglais, ces résultats nous ont également permis de comparer entre elles les différentes traductions françaises de l’OS. Ce mémoire de maîtrise comporte six chapitres, qui correspondent tour à tour à : notre cadre théorique, l'état de la question, nos hypothèses et nos objectifs, notre méthodologie, nos résultats et la discussion de ces résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec L'École des hautes études en sciences sociales de Paris

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.