332 resultados para pouvoir neutre
Resumo:
Le sophiste Dion de Pruse s'est interrogé sur l'expression du divin dans quatre discours datés entre la seconde moitié du Ier et le début du IIe siècle après J.-C. (Or. XI, XII, XXX et XXXVI). Sa réflexion fait d'abord apparaître un problème de langage : il s'agit de recourir aux symboles qui conviennent le mieux au divin et qui offrent le meilleur medium de communication. Dion cherche, d'une part, à renouveler le langage mythique issu des poèmes d'Homère et d'Hésiode, car celui-ci répand des représentations immorales qui ne correspondent plus à la sensibilité religieuse du Haut Empire et qui sont incompatibles avec l'ordre civique et avec l'image du pouvoir. Il ne souhaite pas, d'autre part, rompre avec les cadres de la piété traditionnelle, et en cela il se présente bien comme un représentant de la Seconde Sophistique impliqué dans le culte traditionnel des dieux et cherchant à diffuser une religion philosophique
Resumo:
Avant même d'entamer ma recherche de sujet pour le travail de maîtrise, j'avais déjà une certitude: je souhaitais choisir un thème qui m'intéressait, certes, mais surtout qui arriverait à me passionner, de façon à pouvoir y mettre toute mon énergie. Le choix initial de m'orienter vers ma future spécialité, la psychiatrie, s'est vite confirmé, et un rayon de l'IUMG en particulier a très rapidement attiré ma curiosité: celui de l'ethnopsychiatrie. Pour le choix du thème de ce travail, mon expérience de vie, suite à un mariage mixte, et mon inté- rêt pour les migrants, ont compté, ainsi que les nombreux stages effectués en milieux multicultu- rels et ma probable future orientation en psychiatrie systémique. Face à l'augmentation de la migration et des déplacements des populations et des individus ainsi qu'aux mélanges interculturels qui en résultent, les recherches transculturelles connaissent, depuis quelques années, un développement important: ceci est valable en psychiatrie, en psychopathologie comme en psychothérapie. Pendant mes stages, j'ai remarqué que l'accueil et la prise en charge des personnes étrangères sont une possibilité, pour les professionnels issus de tous les domaines, que ce soit d'un milieu médico- psychologique, social ou éducatif, de remettre en cause les méthodes théoriques et techniques habi- tuelles. En effet, dès que l'on est amené à s'occuper de personnes d'une culture différente de la nô- tre, une partie de nos théories, de notre manière d'intervention clinique et de nos principes de for- mation se trouve forcément remise en question. Le choix de mieux connaître et proposer cette nouvelle discipline par un travail de master s'est basé également en fonction de l'ampleur du parcours historique que l'ethnopsychiatrie nous permettait d'explorer. Par mon travail, j'ai donc essayé de retracer le parcours socio-historique de l'ethnopsychiatrie de- puis ses origines. Cela n'a pas été facile car, même si théoriquement cette discipline s'est dévelop- pée aux alentours du début du XXe siècle, entre l'Europe et les lieux où l'Occident élargissait son domaine, il n y a pas unanimité sur un fondateur précis. Cependant, à plusieurs reprises, Emil Kraepelin est cité comme le fondateur de cette discipline, et c'est pour cette raison que j'ai décidé de focaliser mon attention sur ce grand psychiatre, pour es- sayer de comprendre pourquoi plusieurs auteurs le considèrent comme le père de l'ethnopsychia- trie. Pour ce faire, dans une première partie, ma recherche a donc consisté en une revue de la littérature médicale spécialisée. 4 Je me suis basée tout d'abord sur des sources primaires, en cherchant des articles écrits par Kraepe- lin lui-même, consultant principalement les revues germanophones et anglo-saxonnes susceptibles d'avoir publié ses articles. J'ai également consulté un choix de traités de psychiatrie qu'il a publié. Dans la deuxième partie de mes recherches, j'ai passé en revue la littérature secondaire, en me ba- sant sur des articles qui ont été écrits sur lui par différents auteurs, psychiatres et historiens. La thè- se du Dr. Christoph Bendick a été utilisée en particulier: «Emil Kraepelin's Forschungsreise nach Java», a été un outil précieux pour retrouver aussi bien des récits primaires inédits du psychiatre que maintes sources de littérature secondaire. En analysant cette littérature, j'ai essayé de dégager les principaux thèmes d'évolution entre le XIXe et le XXe siècle, en cherchant en parallèle d'éventuelles répercussions des travaux de psy- chiatrie comparée du médecin allemand sur la postérité, ainsi que sur la psychiatrie moderne. En progressant dans mon travail, je me suis pertinemment posé la question suivante: Kraepelin était-il vraiment le premier qui se fut intéressé à une psychiatrie « exotique » ou, au contraire, l'ambition de comparer la folie occidentale à des peuples et civilisations étrangers avait-elle déjà commencé bien avant lui ? Aurait-il apporté quelque chose de différent dans sa recherche, qui nous permettrait aujourd'hui de lui attribuer le statut de fondateur de l'ethnopsychiatrie ? Afin d'essayer de répondre à cette réflexion, ma méthodologie a consisté en un dépouillement d'une célèbre revue de psychiatrie française, Les annales médico-psychologiques, depuis le premier numéro paru en 1843 jusqu'à l'aube de la deuxième guerre mondiale, à la recherche d'articles trai- tant de la folie exotique. Pour accomplir cette tâche, un article de R. Collignon, psychologue-anthropologue travaillant sur l'histoire de la psychiatrie en Afrique, m'a été d'une aide très précieuse. Ce texte, paru dans la re- vue Psychopathologie Africaine, qui répertorie tous les articles traitants de la psychiatrie coloniale, m'a évité de devoir analyser personnellement toute la collection des A.M.P., ce qui a permis un gain de temps considérable. Une analyse approfondie de cette littérature m'a permis de me forger une idée sur la question et de dégager en même temps, dans la troisième partie du travail, les principaux thèmes d'évolution en ethnopsychiatrie entre le XIXe et le XXe siècle. Finalement, en disséquant les théories d'un autre auteur qui s'est passionné pour l'ethnopsychiatrie, le psychanalyste Georges Devereux, considéré également comme le fondateur de cette discipline, j'ai essayé de comprendre les changements qui se sont opérés dans ce domaine pendant la période qui les sépare. Un regard particulier a été porté sur les possibles répercussions de l'ancienne eth- nopsychiatrie, de connotation coloniale, sur une ethnopsychiatrie plus «moderne», laquelle, suite aux travaux de Devereux, a évolué depuis quelques années surtout dans les domaines des études de la migration et de l'intégration. 5 Cette ethnopsychiatrie contemporaine inclut aujourd'hui des phénomènes uniques attribués à une origine culturelle qui, depuis 1995, sont regroupés dans le DSM IV sous le nom de Culture-Bound Syndromes. Ce travail de master esquisse donc un double mouvement: Europe-Occident, Occident-Europe. Sur ce chemin, aux alentours de 1900, sont posés les premières grandes lignes et récits d'une ethnopsy- chiatrie, née en un premier temps entre l'Europe et ses colonies et ensuite entre l'Europe et le reste du monde.
Resumo:
Les cellules dendritiques sont des cellules du système immunitaire qui permettent d'instruire les lymphocytes T, autres cellules de ce système, pour mettre en place une réponse immunitaire adaptée afin de combattre et vaincre une infection. Ces cellules dendritiques vont reconnaître des motifs spécifiquement exprimés par des pathogènes par l'intermédiaire de récepteurs exprimés à leur surface. En détectant ces molécules, elles vont s'activer et subir diverses modifications pour pouvoir activer les lymphocytes T. Elles vont alors interagir avec les lymphocytes Τ et transférer les informations nécessaires pour que ces cellules s'activent à leur tour et produisent différentes protéines de façon à éliminer le pathogène. En fonction du type de pathogène, les informations transférées entre les cellules dendritiques et les lymphocytes seront différentes de manière à produire la réponse immunitaire la mieux adaptée pour supprimer l'élément infectieux. Dans le corps, les cellules dendritiques circulent continuellement afin de détecter les éléments étrangers. Quand elles reconnaissent une protéine étrangère, elles la phagocytent, c'est-à-dire qu'elles la mangent afin de pouvoir la présenter aux lymphocytes T. Mais quand elles phagocytent un élément étranger, elles peuvent également prendre des éléments du soi, comme par exemple quand elles phagocytent une cellule infectée par un virus. Les cellules dendritiques doivent alors être capables de différentier les molécules du soi et du non-soi de façon à ne pas induire une réponse en présentant un antigène du soi aux lymphocytes T. D'autant plus que lors de leur développement, les lymphocytes Τ qui sont capables de reconnaître le soi sont éliminés mais ce système n'est pas parfait et donc certains lymphocytes Τ auto-reactifs peuvent se trouver dans le corps. Il existe ainsi d'autres mécanismes en périphérie du site de développement pour inhiber ces lymphocytes Τ auto-reactifs. Ce sont les mécanismes de tolérance. Quand les lymphocytes Τ induisent une réponse aux antigènes du soi, cela résulte à des maladies auto-immunes. Dans mon projet de recherche, nous avons travaillé avec des lignées de cellules dendritiques, c'est-à-dire des cellules dendritiques semblables à celles que l'on peut trouver in vivo mais qui sont immortalisées, elles peuvent donc être cultiver et manipuler in vitro. Nous avons génétiquement modifiées ces lignées cellulaires pour qu'elles expriment des molécules immunosuppressives afin d'étudier comment induire une tolérance immunitaire, c'est-à-dire si l'expression de ces molécules permet d'éviter de générer une réponse immunitaire. Pour cela, nous avons utilisé des modèles murins de tumeurs et de maladies auto-immunes. Nous avons démontré que ces lignées de cellules dendritiques peuvent être un grand outil de recherche pour étudier les bénéfices de différentes molécules immuno-modulatrices afin d'induire une tolérance immunitaire à différents antigènes. - Les cellules dendritiques sont responsables de l'induction des réponses immunitaires adaptatives. Suite à une infection microbienne, les cellules dendritiques s'activent, elles induisent l'expression de molécules de costimulation à leur surface, sécrètent des cytokines et induisent la différentiation des cellules Τ effectrices et mémoires. De plus, les cellules dendritiques ont un rôle important dans l'induction et la maintenance de la tolérance immunitaire au niveau du thymus et en périphérie, en induisant l'anergie, la délétion ou la conversion des cellules Τ naïves en cellules régulatrices. Dans notre groupe, une nouvelle lignée de cellules dendritiques appelée MuTu a été crée par la culture de cellules dendritiques tumorales isolées à partir d'une rate d'une souris transgénique, dans laquelle l'expression de l'oncogène SV40 et du GFP sont sous le contrôle du promoteur CD1 le, et sont ainsi spécifiquement exprimés dans les cellules dendritiques. Ces nouvelles lignées appartiennent au sous-type des cellules dendritiques conventionnelles exprimant CD8a. Elles ont conservé leur capacité d'augmenter l'expression des marqueurs de costimulation à leur surface ainsi que le production de cytokines en réponse à des ligands des récepteurs Toll, ainsi que leur capacité à présenter des antigènes associés aux molécules du complexe majeur d'histocompatibilité (CMH) de classe I ou II pour activer la prolifération et la différentiation des lymphocytes T. En utilisant un système de transduction de lentivirus de seconde génération, ces nouvelles lignées de cellules dendritiques ont été génétiquement modifiées pour sur-exprimer des molécules immunosuppressives (IL-10, TGFP latent, TGFp actif, Activin A, Arginase 1, IDO, B7DC et CTLA4). Ces lignées permettent d'étudier de manière reproductible le rôle de ces molécules potentiellement tolérogènes sur les réponses immunitaires in vitro et in vivo. Ces lignées potentiellement tolérogènes ont été testées, tout d'abord, in vitro, pour leur capacité à inhiber l'activation des cellules dendritiques, à bloquer la prolifération des cellules Τ ou à modifier leur polarisation. Nos résultats démontrent qu'en réponse à une stimulation, la sur-expression des molécules costimulatrices et la sécrétion de molécules pro- inflammatoires est réduite quand les cellules dendritiques sur-expriment l'IL-10. La sur¬expression de TGFp sous sa forme active induit le développement de cellules régulatrices CD4+ CD25+ Foxp3+ et bloque la réponse CD8 cytotoxique tandis que la sur-expression de CTLA4 à la surface des cellules dendritiques inhibe une réponse Thl et induit des lymphocytes Τ anergiques. Ces lignées ont également été utilisées pour étudier l'induction de tolérance in vivo. Tout d'abord, nous avons étudié l'induction de tolérance dans un modèle de développement de tumeurs. En effet, quand les lignées tumorales sont transférées dans les lignées de souris C57BL/6, elles sont reconnues comme du non-soi du à l'expression de l'oncogène SV40 et du GFP et sont éliminées. Ce mécanisme d'élimination a été étudié en utilisant une lignée de cellules dendritiques modifiée pour exprimer la luciférase et qui a permis de suivre le développement des tumeurs par de l'imagerie in vivo dans des animaux vivants. Ces lignées de cellules dendritiques MuTu sont éliminées dans la souris C57BL/6 par les lymphocytes CD8 et l'action cytotoxique de la perforine. Après plusieurs injections, les cellules dendritiques sur-exprimant CTLA4 ou l'actif TGFp peuvent casser cette réponse immunitaire inhérente aux antigènes de la lignée et induire le développement de la tumeur dans la souris C57BL/6. Le développement tumoral a pu être suivi en mesurant la bioluminescence émise par des cellules dendritiques modifiées pour exprimer à la fois l'actif TGFp et la luciférase. Ces tumeurs ont pu se développer grâce à la mise en place d'un microenvironnement suppressif pour échapper à l'immunité en recrutant des cellules myéloïde suppressives, des lymphocytes CD4 régulateurs et en induisant l'expression d'une molécule inhibitrice PD-1 à la surface des lymphocytes CD8 infiltrant la tumeur. Dans un deuxième temps, ces lignées tolérogènes ont également été testées dans un modèle murin de maladies auto-immunes, appelé l'encéphalomyélite auto-immune expérimental (EAE), qui est un modèle pour la sclérose en plaques. L'EAE a été induite dans la souris par le transfert de cellules de ganglions prélevées d'une souris donneuse préalablement immunisée avec une protéine du système nerveux central, la glycoprotéine myéline oligodendrocyte (MOG) émulsifiée dans de l'adjuvant complet de Freund. La vaccination des souris donneuses et receveuses avec les cellules sur-exprimant l'actif TGFP préalablement chargées avec la protéine MOG bloque l'induction de l'EAE. Nous sommes actuellement en train de définir les mécanismes qui permettent de protéger la souris du développement de la maladie auto-immune. Dans cette étude, nous avons ainsi démontré la possibilité d'induire la tolérance in vivo et in vitro à différents antigènes en utilisant nos nouvelles lignées de cellules dendritiques et en les modifiant pour exprimer des molécules immunosuppressives. En conséquence, ces nouvelles lignées de cellules dendritiques représentent un outil pour explorer les bénéfices de différentes molécules ayant des propriétés immuno-modulatrices pour manipuler le système immunitaire vers un phénotype tolérogène. - Dendritic cells (DC) are widely recognized as potent inducers of the adaptive immune responses. Importantly, after microbial infections, DC become activated, induce co- stimulation, secrete cytokines and induce effector and memory Τ cells. DC furthermore play an important role in inducing and maintaining central and peripheral tolerance by inducing anergy, deletion or commitment of antigen-specific naïve Τ cells into regulatory Τ cells. In our group, stable MuTu DC lines were generated by culture of splenic DC tumors from transgenic mice expressing the SV40 large Τ oncogene and the GFP under DC-specific CDllc promoter. These transformed DC belong to the CD8a+ conventional DC subtype and have fully conserved their capacity to upregulate co-stimulatory markers and produce cytokines after activation with Toll Like Receptors-ligands, and to present Major Histocompatibility class-I or MHCII-restricted antigens to activate Τ cell expansion and differentiation. Using a second- generation lentiviral transduction system, these newly developed MuTu DC lines were genetically modified to overexpress immunosuppressive molecules (IL-10, latent TGFp, active TGFp, Activin A, Arginase 1, IDO, B7DC and CTLA4). This allows to reproducibly investigate the role of these potentially tolerogenic molecules on in vitro and in vivo immune responses. These potentially tolerogenic DC were tested in vitro for their ability to inhibit DC activation, to prevent Τ cell proliferation and to modify Τ cell polarization. Our results show that the upregulation of costimulatory molecules and the secretion of pro-inflammatory cytokines were reduced upon stimulation of DC overexpressing IL-10. The overexpression of active TGFP induced the development of CD4+ CD25+ Foxp3+ regulatory Τ cells and inhibited the cytotoxic CD8 Τ cell response as shown by using the OT-II Τ cell system whereas the surface expression of CTLA-4 on DC prevented the Thl response and prompted an anergic antigen-specific Τ cell response. These MuTu DC lines were also used in vivo in order to study the induction of tolerance. First we addressed the induction of tolerance in a model of tumorogenesis. The adoptively transferred tumor cell lines were cleared in C57BL/6 mice due to the foreign expression of SV40 LargeT and GFP. The mechanism of clearance of MuTu DC line into C57BL/6 mice was investigated by using luciferase-expressing DC line. These DC line allowed to follow, by in vivo imaging, the tumor development in living animals and determined that MuTu DC lines were eliminated in a perforin-mediated CD8 Τ cell dependent and CD4 Τ cell independent response. After multiple injections, DC overexpressing CTLA4 or active TGFp could break the immune response to these inherent antigens and induced DC tumorogenesis in wild type mice. The tumor outgrowth in C57BL/6 mice was nicely observed by double-transduced DC lines to express both luciferase and active TGFp. actTGFp-DC tumor was shown to recruit myeloid-derived suppressor cells, induce CD4+ CD25+ Foxp3+ regulatory Τ cells and induce the expression of the inhibitory receptor PD-1 on tumor- infiltrating CD8+ Τ cells in order to escape tumor immunity. Tolerogenic DC lines were also tested for the induction of tolerance in a murine model of autoimmune disease, the experimental autoimmune encephalitis (EAE) model for human multiple sclerosis. EAE was induced in C57BL/6 mice by the adoptive transfer of lymph node cells isolated from donor mice previously immunized by a protein specific to the central nervous system, the myelin oligodendrocyte glycoprotein (MOG) emulsified in the complete freund adjuvant. The vaccination of donor and recipient mice with MOG-pulsed actTGFP-DC line prevented EAE induction. We are still investigating how the active TGFP protect mice from EAE development. We generated tolerogenic DC lines inducing tolerance in vitro and in vivo. Thereby these MuTu DC lines represent a great tool to explore the benefits of various immuno-modulatory molecules to manipulate the immune system toward a tolerogenic phenotype.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Résumé Des développements antérieurs, au sein de l'Institut de Géophysique de Lausanne, ont permis de développer des techniques d'acquisition sismique et de réaliser l'interprétation des données sismique 2D et 3D pour étudier la géologie de la région et notamment les différentes séquences sédimentaires du Lac Léman. Pour permettre un interprétation quantitative de la sismique en déterminant des paramètres physiques des sédiments la méthode AVO (Amplitude Versus Offset) a été appliquée. Deux campagnes sismiques lacustres, 2D et 3D, ont été acquises afin de tester la méthode AVO dans le Grand Lac sur les deltas des rivières. La géométrie d'acquisition a été repensée afin de pouvoir enregistrer les données à grands déports. Les flûtes sismiques, mises bout à bout, ont permis d'atteindre des angles d'incidence d'environ 40˚ . Des récepteurs GPS spécialement développés à cet effet, et disposés le long de la flûte, ont permis, après post-traitement des données, de déterminer la position de la flûte avec précision (± 0.5 m). L'étalonnage de nos hydrophones, réalisé dans une chambre anéchoïque, a permis de connaître leur réponse en amplitude en fonction de la fréquence. Une variation maximale de 10 dB a été mis en évidence entre les capteurs des flûtes et le signal de référence. Un traitement sismique dont l'amplitude a été conservée a été appliqué sur les données du lac. L'utilisation de l'algorithme en surface en consistante a permis de corriger les variations d'amplitude des tirs du canon à air. Les sections interceptes et gradients obtenues sur les deltas de l'Aubonne et de la Dranse ont permis de produire des cross-plots. Cette représentation permet de classer les anomalies d'amplitude en fonction du type de sédiments et de leur contenu potentiel en gaz. L'un des attributs qui peut être extrait des données 3D, est l'amplitude de la réflectivité d'une interface sismique. Ceci ajoute une composante quantitative à l'interprétation géologique d'une interface. Le fond d'eau sur le delta de l'Aubonne présente des anomalies en amplitude qui caractérisent les chenaux. L'inversion de l'équation de Zoeppritz par l'algorithme de Levenberg-Marquardt a été programmée afin d'extraire les paramètres physiques des sédiments sur ce delta. Une étude statistique des résultats de l'inversion permet de simuler la variation de l'amplitude en fonction du déport. On a obtenu un modèle dont la première couche est l'eau et dont la seconde est une couche pour laquelle V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s. Abstract A system to record very high resolution (VHR) seismic data on lakes in 2D and 3D was developed at the Institute of Geophysics, University of Lausanne. Several seismic surveys carried out on Lake Geneva helped us to better understand the geology of the area and to identify sedimentary sequences. However, more sophisticated analysis of the data such as the AVO (Amplitude Versus Offset) method provides means of deciphering the detailed structure of the complex Quaternary sedimentary fill of the Lake Geneva trough. To study the physical parameters we applied the AVO method at some selected places of sediments. These areas are the Aubonne and Dranse River deltas where the configurations of the strata are relatively smooth and the discontinuities between them easy to pick. A specific layout was developed to acquire large incidence angle. 2D and 3D seismic data were acquired with streamers, deployed end to end, providing incidence angle up to 40˚ . One or more GPS antennas attached to the streamer enabled us to calculate individual hydrophone positions with an accuracy of 50 cm after post-processing of the navigation data. To ensure that our system provides correct amplitude information, our streamer sensors were calibrated in an anechoic chamber using a loudspeaker as a source. Amplitude variations between the each hydrophone were of the order of 10 dB. An amplitude correction for each hydrophone was computed and applied before processing. Amplitude preserving processing was then carried out. Intercept vs. gradient cross-plots enable us to determine that both geological discontinuities (lacustrine sediments/moraine and moraine/molasse) have well defined trends. A 3D volume collected on the Aubonne river delta was processed in order ro obtain AVO attributes. Quantitative interpretation using amplitude maps were produced and amplitude maps revealed high reflectivity in channels. Inversion of the water bottom of the Zoeppritz equation using the Levenberg-Marquadt algorithm was carried out to estimate V P , V S and ρ of sediments immediately under the lake bottom. Real-data inversion gave, under the water layer, a mud layer with V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s.
Resumo:
La sarcoïdose est une affection inflammatoire granuiomateuse systémique d'origine inconnue touchant le plus fréquemment les poumons, le système lymphoïde, le foie, les yeux et la peau. Dans cet article, nous rapportons deux cas de sarcoïdose cutanée touchant les avant-bras de deux patients anciens toxicomanes traités par interféron-a et ribavirine pour une hépatite C chronique. Nous procédons à une revue de la littérature de la sarcoïdose induite par l'interféron et élaborons une nouvelle hypothèse pathogénique de l'effet Koebner dans la sarcoïdose cutanée. Dans le cas des deux patients que nous décrivons, la distribution des lésions cutanées coïncide avec les anciens sites d'injection d'héroïne le long des trajets veineux des deux avant- bras. Cette distribution unique de l'atteinte cutanée suggère que les dommages tissulaires induits par la répétition d'injections percutanées puissent représenter un terrain favorisant au développement local d'une sarcoïdose cutanée. Fait intéressant, il a été récemment démontré que les cellules dendritiques plasmacytoïdes - sous-type de cellules dendritiques généralement absent de la peau - infiltrent rapidement les sites de peau lésée. Ces cellules sont la source d'une production endogène d'interféron-a, cytokine connue pour promouvoir le processus de cicatrisation, mais également pour favoriser le développement de sarcoïdose chez des individus prédisposés. Ainsi, nous postulons que les lésions de sarcoïdose cutanée limitées le long des trajets veineux - sites préalables d'injection percutanée de drogues - peuvent résulter d'une expression locale supplémentaire d'interféron-a. Celle-ci serait en outre favorisée par le traitement de ribavirine dans le cadre de l'hépatite C, connu pour renforcer la production endogène d'interféron-a. L'identification de nombreuses cellules dendritiques plasmacytoïdes circonscrivant l'inflammation granuiomateuse sur la biopsie cutanée de l'un de nos patients semble être un argument dans ce sens, conforté par l'absence de corps étranger détecté en microscopie par lumière polarisée. Cette observation semble pouvoir représenter un point crucial dans la compréhension des mécanismes physiopathologiques à la base de l'infiltration des cicatrices cutanées par la sarcoïdose. Des investigations supplémentaires doivent encore être effectuées afin de confirmer cette hypothèse.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Selon Ray Harryhausen, maître des effets spéciaux cinématographiques, « Gustave Doré aurait été un grand chef opérateur [...] il regardait les choses avec le point de vue de la caméra ». L'oeuvre de Doré a marqué de manière indélébile l'imaginaire filmique depuis ses origines. Et le cinéma, en retour, a « gravé » Doré dans l'imaginaire du XXe siècle. Peu de films sur la Bible, depuis la Vie et Passion de Jésus Christ produit par Pathé en 1902, qui ne se réfèrent à ses illustrations, ni d'adaptation cinématographique de Dante ou encore de Don Quichotte qui ne l'aient pris comme modèle, de Georg Wilhelm Pabst et Orson Welles à Terry Gilliam. Il n'est pas de films sur la vie londonienne et victorienne qui n'empruntent leurs décors aux visions de Londres, un pèlerinage, qu'il s'agisse de David Lean, de Roman Polanski ou de Tim Burton. Nombre de scènes oniriques, fantastiques, fantasmagoriques ont puisé dans l'oeuvre graphique de Doré, depuis le Voyage dans la lune de Georges Méliès en 1902. Si dans le domaine du dessin animé ou de l'animation, la dette de Walt Disney envers Doré est immense, ses forêts « primitives », notamment celles d'Atala, ont aussi servi aux différentes versions de King Kong, de l'original de 1933 au film de 2005 de Peter Jackson qui s'était déjà appuyé sur l'oeuvre de Doré dans Le Seigneur des anneaux. Ce chapitre vise à saisir l'étendue et la signification de cette imprégnation de l'imaginaire de Doré dans la culture de masse, de la dette explicite de Jean Cocteau envers les illustrations des Contes de Perrault dans La Belle et la bête (1945) aux réminiscences doréennes du personnage de Chewbacca dans la Guerre des Etoiles ou de la saga d'Harry Potter.
Resumo:
Introduisant à la lecture de la pensée de Claude Lefort, l'article montre que sa pensée du politique se construit entièrement dans l'horizon d'une pensée de la liberté politique, voire des conditions de celle-ci. A l'opposé d'un libéralisme d'inspiration constructiviste, la pensée de Lefort insiste sur la thèse que ce qui assure la liberté politique dans la démocratie n'est pas tant l'idée d'une propriété de soi dont jouirait chacun en vertu d'un droit naturel que l'attachement à la liberté comme forme des rapports sociaux constitutifs de l'espace démocratique.
Resumo:
Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
Le rapport international le plus récent concernant la maltraitance infantile date de 2006 : il s'agit du Rapport mondial sur la violence contre les enfants, du Secrétaire général des Nations Unies (1). La définition retenue pour la maltraitance infantile s'inspire de celle du Rapport mondial sur la violence et la santé, de l'OMS en 2002 (2) : «La menace ou l'utilisation intentionnelle de la force physique ou du pouvoir contre un enfant par un individu ou un groupe qui entraîne ou risque fortement de causer un préjudice à la santé, à la survie, au développement ou à la dignité de l'enfant.». Il existe différentes formes de maltraitance : - la maltraitance physique (brutalités, coups, blessures, brûlures, etc.) la maltraitance psychologique (insultes, humiliation, isolement, terroriser l'enfant, etc.) - la maltraitance sexuelle (exhibitionnisme, attouchements, relations sexuelles, etc.) - les négligences (manque d'attention et de soins) Dans la majorité des cas, plusieurs formes de maltraitances sont présentes chez un enfant victime de mauvais traitements ; elles se chevauchent (3). L'Observatoire national de l'Action Sociale Décentralisée (ODAS) a réalisé une classification des enfants à protéger, les définitions sont les suivantes (4): L'enfant maltraité est « celui qui est victime de violences physiques, d'abus sexuels, de cruauté mentale, de négligences lourdes ayant des conséquences sur son développement physique et psychologique. » L'enfant en risque est « celui qui connaît des conditions d'existence qui risquent de mettre en danger sa santé, sa sécurité, sa moralité, son éducation ou son entretien, mais qui n'est pas pour autant maltraité. » L'enfant en souffrance est « un enfant aimé et soigné mais qui souffre des conditions d'existences qui fragilisent ou menacent son développement et son épanouissement personnel. » En Suisse, peu de données sont disponibles concernant la prévalence de la maltraitance étant donné la difficulté à récolter des données. Selon l'Office Fédéral de la Statistique suisse, les résultats d'une étude de 2004 montre une diminution des châtiments corporels par rapport à une étude semblable réalisée 12 ans auparavant (5). Cependant, la maltraitance infantile est un problème de santé publique du fait de la gravité de ses conséquences sur la santé physique, mentale et sociale de l'individu et de son retentissement sur la communauté ainsi que de sa fréquence estimée dans la population suisse. Elle a des effets néfastes sur la santé de l'enfant par mortalité directe ou morbidité directe ou indirecte et représente également un facteur de risque pour la santé physique et mentale, le développement et les perspectives de réalisation personnelle du jeune adulte et de l'adulte (6). On sait aujourd'hui que le nombre de cas de maltraitance signalés en Suisse est en augmentation. Ceci démontre que la maltraitance est un phénomène courant. Cependant, les professionnels ne pensent pas MF / Travail de master en médecine / 2011-2012 3 que le phénomène de la maltraitance infantile soit en augmentation, mais que les cas de maltraitance sont mieux repérés, que les professionnels s'occupant d'enfants sont plus sensibles à cette problématique et qu'il y a donc davantage de signalements (7). La prévention de la maltraitance est nécessaire et possible. Des interventions ont établi leur efficacité et il a été démontré que plus l'intervention est précoce, plus elle a de chances de réussite (2). C'est la raison pour laquelle il est important de repérer les cas de maltraitance précocement afin de pouvoir intervenir, aider les familles et garantir la protection de l'enfant. Des mesures de prévention ont été mises en place au niveau international, comme au niveau fédéral, pour assurer la reconnaissance et la prise en charge de l'enfant victime de maltraitance. Au niveau international, la Convention internationale des droits de l'enfant a été adoptée par l'Assemblée Générale en 1989 (8). Elle reconnaît l'enfant comme personne indépendante ayant des droits propres. Cette convention est divisée en quatre parties comportant : les principes directeurs (la non-discrimination, viser les meilleurs intérêts pour l'enfant, le droit de vivre, de survivre et de se développer, le droit de participation), les droits de survie et de développement (le droit à avoir les ressources, les compétences et les contributions nécessaires pour pouvoir survivre et pouvoir profiter d'un développement complet), les droits de protection (de toutes les formes de maltraitance envers les enfants, négligences, exploitation et cruauté), les droits de participation (la liberté d'expression de leurs opinions, de parler de sujets qui concernent leur vie sociale, économique, religieuse, culturelle ou politique et d'être écouté, la liberté d'information et la liberté d'association). Les stratégies de prévention de la maltraitance infantile visent à réduire les causes sous- jacentes et les facteurs de risque, tout en renforçant les facteurs de protection, de façon à prévenir de nouveaux cas (9). Elles comprennent : les stratégies sociétales et communautaires (mise en place de réformes juridiques et des droits de la personne humaine, instauration des politiques sociales et économiques favorables, correction des normes sociales et culturelles, réduction des inégalités économiques, réduction du facteur de risque environnemental, formation des professionnels), les stratégies relationnelles (formation parentale et des adultes s'occupant d'enfants), les stratégies individuelles (apprendre aux enfants à reconnaître et à éviter les situations de violence potentielle). En plus des mesures structurelles mises en place par les états (scolarisation obligatoire, dispositif légal, service de protection des enfants et des jeunes, services de santé spécialisés, etc.), des associations de lutte contre la maltraitance infantile existent et jouent également un rôle important dans la prévention. Par exemple, la Fondation Suisse pour la Protection de l'Enfant s'emploie à analyser les causes de la violence envers les MF / Travail de master en médecine / 2011-2012 4 enfants et à les combattre, à protéger les enfants contre la violence physique, psychologique, sexuelle et structurelle ainsi que contre la négligence par le biais d'un travail de prévention ciblé à l'échelle nationale. Elle vise également à apprendre aux enfants comment se protéger eux-mêmes et demander de l'aide, à sensibiliser les adultes qui les entourent au fait que les enfants ont une personnalité propre et qu'ils ont le droit d'être protégés et encouragés et à demander au niveau politique que l'on mette en place des structures adaptées aux enfants (10).
Resumo:
Tout au long de son histoire, la philosophie s'est sentie menacée par le moment sensuel de l'art, le plaisir pris qui risquait de mettre la raison hors d'elle-même. Là où Platon s'en défendit par l'exclusion de la poésie hors de l'enceinte de la cité philosophique, Kant tenta de le domestiquer en l'intégrant au dedans des murs du système. Il espérait ainsi, en assignant une place déterminée au plaisir et au désir, en maîtriser les débordements. Mais le pouvoir de séduction de l'art, comme celui des femmes auquel Kant le renvoie, ne se laisseront pas si aisément contenir dans l'économie systémique et viendront déranger le subtile équilibre architectonique de l'édifice critique.
Resumo:
Résumé Cet article examine le rôle joué par les normes internationales techniques dans la mondialisation des activités de service. Différentes approches d'économie considèrent que les spécificités des activités de services sont un frein à leur délocalisation, à leur industrialisation et à leur normalisation. A l'opposé de ces approches centrées sur les spécificités des activités de services, les approches d'économie politique internationale mettent en avant l'existence de configurations conflictuelles de pouvoir à l'oeuvre dans l'internationalisation des activités de services et ce, au-delà des limites sectorielles et nationales. Cet article examine le cas du secteur des centres d'appels et, plus généralement, celui de la sous-traitance des services aux entreprises (BPO) en Inde. Nos résultats suggèrent que les normes techniques sont importantes dans le secteur étudié, alors même que ces types de services sont conventionnellement identifiés comme étant peu susceptibles d'être soumis à des normes. Une perspective d'économie politique sur la normalisation des activités de service souligne comment la problématique du pouvoir investit la normalisation technique d'une dimension plus progressive à travers les thématiques du "travailleur", du "consommateur", ou de "l'environnement". Abstract This paper explores the role of international standards in the much-debated globalisation of the service economy. Various strands of economic analyses consider that core attributes of services affect their ability to be reliably delocalised, industrialised, and standardised. In contrast, international political economy approaches draw attention to power configurations supporting conflicting use of standards across industries and nations. The paper examines the case of the rising Indian service industry in customer centres and business process outsourcing to probe these opposing views. Our findings suggest that standards matter in types of services that conventional economic analyses identify as unlikely to be standardised, and that the standards used in the Indian BPO industry are widely accepted. Despite little conflict in actual definitions of market requirements, an international political economy perspective on service standardisation highlights the importance of potential power issues related to workers', consumers', and environmental concerns likely to be included in more progressive forms of standardisation.
Resumo:
Sur la base de données ethnographiques rendant compte d'échanges quotidiens entre une équipe mobile de soins palliatifs et différents services de « première ligne » d'un hôpital, cet article considère les relations d'intermédicalité entre ces cultures médicales divergentes. Dans un premier temps, les obstacles qui émergent lors de tentatives d'intégration du nouveau modèle proposé par les soins palliatifs seront discutés. En effet, celui-ci introduit une conception nouvelle de la trajectoire de la maladie incurable traduisant des valeurs fondamentales telles que prendre du temps et s'adapter aux besoins du patient tout en soulageant efficacement les symptômes liés à l'incurabilité et à la fin de vie. Les données recueillies dans cette enquête montrent que, tout en se confrontant à l'ordre hospitalier, les soins palliatifs participent dans une certaine mesure au renouvellement de pratiques institutionnelles. Dans un deuxième temps, ces confrontations et transformations seront lues à la lumière d'enjeux de pouvoir sous-jacents influençant le processus de reconnaissance des soins palliatifs dans le champ médical. En tant que nouvelle spécialité « à contre-courant », une forte adaptation est requise laissant poindre le risque d'assimilation de l'équipe mobile à l'institution hospitalière.