999 resultados para Mesures de sécurité


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans les environnements électroniques, quels sont les mécanismes qui permettent d’assurer la fiabilité d’un document ? comment s’assurer que les procédés retenus sont suffisants ? comment garantir l’impartialité des organismes de normalisation ? etc. Telles sont les questions auxquelles s’intéressent l’auteure en analysant, du point de vue du droit français et communautaire, la problématique de la sécurité juridique sur Internet sous le prisme de la normalisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"De plus en plus, la recherche en génétique s'attarde à identifier les mutations de gènes qui prédisposent les porteurs de ces mutations à des maladies complexes. La recherche tente également d'établir un lien entre le développement de la maladie pour certains porteurs en fonction de leur contexte socio-économique et de leur interaction avec l'environnement. Compte tenu de ces nombreux facteurs d'analyse, l'interprétation des caractéristiques génétiques d'un individu et du risque qui en découle s'avère particulièrement complexe. Or, cette complexité croissante se produit alors même que l'accès aux données génétiques se banalise et qu'il est maintenant possible pour quiconque d'obtenir une analyse personnalisée de son génome via l'internet. La discrimination génétique n'est pas définie en droit canadien ; il est généralement acquis que, dans le contexte de l'assurance-vie, celle-ci est susceptible d'avoir des conséquences désastreuses. Cependant, nous ne croyons pas que l'information d'ordre génétique doive être l'objet d'une approche exceptionnelle causant accrocs au droit général des assurances. D'autant plus, les conséquences du risque de discrimination génétique semblent davantage relevées de la crainte que de l'exercice d'une discrimination réelle. Dans ce contexte, il s'avère nécessaire d'évaluer les mesures de protection contre la discrimination génétique dans le contexte de l'assurance-vie. Pour ce faire, nous abordons, d'une part, les normes d'application générale en matière de protection contre la discrimination; normes parmi lesquelles la Charte des droits et libertés de la personne offre une protection intéressante. D'autre part, nous nous intéressons aux normes visant la discrimination spécifiquement génétique, notamment le nouvel Genetic Information Nondiscrimination Act et l'affaire Audet c. Industrielle-Alliance. Enfin, nous proposons des mesures minimales qui sauraient s'avérer utile pour préserver un juste équilibre."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’auteur traite ici de la télémédecine, une sorte d’application des technologies de l’information et de la communication aux activités du secteur des soins de santé. Il fait d’abord état des nombreux produits et services qu’offre cette application, allant de la prise de rendez-vous chez le médecin grâce à l’informatique, aux vêtements dits intelligents et qui sont munis de capteurs permettant la délivrance à distance des médicaments directement au patient. Le nombre d’applications de la télémédecine étant quasi illimité, nombreuses deviennent les informations à gérer et qui se rapportent tant aux patients qu’au personnel soignant et qu’à leurs collaborateurs. Cela pose évidemment le problème de la confidentialité et de la sécurité se rapportant à de telles applications. C'est justement cette question qui sera traitée par l’auteur qui nous rappelle d’abord l’importance en Europe de l’encadrement juridique de la télémédecine afin d’assurer la protection des données médicales. Une telle protection a surtout été consacrée à travers des directives émanant de la Communauté européenne où la confidentialité et la sécurité des traitements de données ne sont qu’une partie des règles qui assurent la protection des données médicales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Entre la publication de La volonté de savoir en 1976 et les derniers ouvrages publiés en 1984, un certain silence recouvre l’œuvre de Michel Foucault. Mais cet apparent mutisme s’estompe aujourd’hui, grâce à la publication et à la réception progressive de ses cours — notamment ceux professés au Collège de France en 1977-1978. Ils nous permettent en effet de porter un regard nouveau sur le parcours philosophique de Foucault, éclairant tout le pan d’une œuvre qui allait par la suite s’enrichir d’un êthos éthico-critique. En ce sens, il nous a semblé important de revenir sur quelques unes des notions-clés qui conditionneront ses derniers travaux. Ainsi, nous nous proposons à la fois d’esquisser la genèse du biopouvoir ­ qui s’articule autour du « concept » capital de population ­ et de décrire les traits généraux des dispositifs de sécurité : thèmes qui offrent une résonance toute contemporaine et qui permettent de problématiser le présent de notre avenir.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Introduction L’efficacité de la mastectomie prophylactique est bien démontrée. La mastectomie NSM (nipple-sparing mastectomy) peut potentiellement améliorer les résultats esthétiques, mais elle n’est pas pratiquée d’emblée en raison de doutes face à sa sécurité oncologique. Objectif Évaluer la faisabilité et la sécurité oncologique de la NSM dans un contexte prophylactique ainsi que les résultats esthétiques et la satisfaction des patientes. Méthodologie Une étude rétrospective fut conduite chez toutes les femmes ayant subi une mastectomie prophylactique suivie d’une reconstruction mammaire immédiate au centre hospitalier de l’Université de Montréal (CHUM) entre1997 et 2008. Les données concernant les facteurs de risque de cancer, les complications post-opératoires et les incidences de cancer furent notées. La satisfaction des patientes était évaluée par questionnaire. Deux chirurgiens ont évalué les résultats esthétiques sur des photos. Résultats Soixante et onze patientes ont subi 86 mastectomies prophylactiques, dont 21 NSM et 65 SSM (skin-sparing mastectomy). Suivant une SSM, 34 CAM (complexe aréolo- mamelonaire) furent reconstruits. Une nécrose totale s’est produite dans 2 CAM préservés et dans 2 CAM reconstruits. Le taux général de complications était significativement plus élevé parmi les CAM reconstruits. La satisfaction des patientes quant à l’apparence du CAM était significativement plus élevée dans le groupe NSM et les résultats esthétiques, meilleurs. Avec un temps de suivi moyen de 50 mois, aucune incidence au niveau du CAM n’est survenue. i Conclusion Les NSM offrent de meilleures résultats, n’augmentent pas les complications post- opératoire et semblent sécuritaires au plan oncologique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire s’intéresse aux conditions qui ont mené à la guerre de six jours de 1967 au Moyen-Orient. Tout particulièrement, mon mémoire investiguera les dynamiques domestiques qui influent sur la prise de décision politique. L’hypothèse principale suppose que le mode de gestion de la société, choisi par le gouvernement au pouvoir, influe et contraint les options de politique étrangère disponibles à celui-ci. . Un régime peut recourir à deux modes de gestion de la société : l’exclusion et l’inclusion, à plusieurs degrés. En fonction du mode de gestion choisi, le gouvernement aura besoin de plus ou moins de ressources pour le mettre en place et pour le préserver. La quantité et la nature des ressources utilisées au niveau domestique contraindront les options de politique étrangère disponibles au régime Les guerres du Moyen-Orient, et la politique étrangère des pays de la région sont souvent interprétées selon des principes réalistes : la recherche du pouvoir et de sécurité guide la politique étrangère. Ce mémoire cherche à souligner l’importance de dynamiques domestiques sur le processus de prise de décision politique, mais également l’influence qu’a le conflit israélo-arabe sur la structure, le fonctionnement et la société des pays concernés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En 1951, le droit international des réfugiés voyait le jour avec la Convention relative au statut des réfugiés. Cette convention ainsi que son Protocole stipulent la définition contemporaine de cette notion et les obligations de l'État d'accueil à l’égard des réfugiés mais y prévoit aussi une exception. En effet, les rédacteurs de la Convention de 1951, percevant que certains bourreaux tenteraient d'user de ce mécanisme pour échapper à des poursuites en trouvant refuge à l'étranger, y ont intégré une dérogation à la définition de réfugié qui a pris la forme d’une clause d'exclusion. Celle-ci permet à tout État ayant adhéré à cet instrument de refuser d'accueillir sur son territoire les individus à l'origine des plus grands crimes internationaux et nationaux. Le Canada, en ratifiant la Convention de 1951 et son Protocole en 1969, a incorporé dans sa législation nationale cette clause d'exclusion dans l'article 98 de la Loi sur l'immigration et la protection des réfugiés. Le présent mémoire porte sur l'application de cette clause d'exclusion en droit canadien. Nous proposons une analyse de l'application de cette disposition en droit interne. L’objectif général est de montrer que les cours de justice favorisent une interprétation trop large de la clause d’exclusion, dénaturant ainsi son statut de règle d’exception. En effet, cette interprétation jurisprudentielle a pour conséquence d’attribuer un poids prépondérant à la sécurité nationale aux dépens du caractère humanitaire qui imprègne le droit d’asile depuis ses origines.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comment concevoir la sécurité et le conflit violent d’aujourd’hui ? Cette étude traite de la pertinence de l’étude des questions environnementales au champ de la gouvernance de la sécurité dans le cadre de la consolidation de la paix. Ainsi, nous cherchons à décrire les liens entre les enjeux environnementaux, la sécurité et le conflit violent, à étudier le potentiel des projets environnementaux pour la gouvernance de la sécurité, de présenter les recommandations pour améliorer la durabilité de ces interventions, tout en considérant la question des écophilosophies. Nous avons opté pour des données de type qualitatif, soit sept entrevues semi-directives réalisées avec des professionnels du domaine des opérations de paix, quatre webémissions et neuf documents écrits. Toutes ont été traitées selon les directives de la théorie ancrée. Notre analyse démontre une interdépendance entre la détérioration environnementale, la sécurité et la dynamique des conflits armés. À l’instar de cette interaction, la « coopération environnementale » et la gestion des ressources naturelles serviraient à établir un dialogue entre les belligérants dans un objectif de bâtir la confiance, mais aussi à promouvoir le développement durable. La participation citoyenne constituerait un facteur incontournable pour développer la résilience des populations et des institutions face aux changements environnementaux et sociaux rapides et par conséquent favoriserait une sécurité humaine plus stable. Or, les réformes de gouvernance de la sécurité demandent une plus grande intégration de la population. Pour conclure, nous avons produit un modèle d’intégration des questions environnementales dans le but d’améliorer la gouvernance de la sécurité dans le cadre de consolidation de la paix en milieux postconflits. Sous forme de six énoncés pratiques, nous expliquons l’importance d’imbriquer les concepts de sécurité humaine et environnementale, d’exploiter les opportunités que présentent les situations d’interdépendances, de considérer davantage les interventions locales, d’adopter une approche participative, d’utiliser la coopération environnementale et de privilégier les approches stratégiques amenant à des solutions gagnantes pour tous.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.