523 resultados para Jeux à niveaux multiples
Resumo:
Le présent travail rend compte de la double articulation d'analyse pensée par Antoine Berman dans Pour une critique des traductions: John Donne (Gallimard, 1994). La méthode bermanienne s'attache tant à une histoire, événementielle et individuelle, des traductions qu'à une analyse des textes à la lumière de leurs entours (paratextes, projets de traduction, etc.). Dans une première partie, nous tenterons de décrire et de comprendre à l'aide d'un panorama historique l'importation de la poésie de Rilke en traduction française, des premières versions du début du XXe siècle aux dernières traductions des Élégies de Duino (2008, 2010). Reprenant la formule de Berman, nous « irons au traducteur », à sa façon de traduire et à la traduction qu'il livre. Nous nous pencherons ainsi sur l'identité de ces traducteurs (premiers ou bien nouveaux), sur leur statut socioculturel ainsi que sur les circonstances dans lesquelles ils furent amenés à traduire et virent leur travail publié. Il s'agira d'établir de façon synthétique ce que Berman, sous l'influence de H. R. Jauss, dénomme l' « horizon » d'une traduction qui, à une date donnée, prend en compte une pluralité de critères allant de traits propres au traducteur aux codes poétiques en vigueur dans le vaste champ des Lettres et la société. Nous replacerons ainsi la traduction dans le plus large contexte du transfert culturel et de l'importation et examinerons les traducteurs en présence : les universitaires, les poètes, les traducteurs à plein temps et, dans une moindre mesure, les philosophes. De ce panorama historique émergera l'idée d'une concurrence entre les multiples traducteurs de la poésie de Rilke, plus spécialement entre universitaires et poètes. Dans une seconde partie, reflet de l'autre facette de la pensée bermanienne, nous procèderons à la comparaison et à l'évaluation critique de plusieurs versions françaises de la première Élégie de Duino - opus poétique rilkéen le plus retraduit en français. Notre corpus se limitera à cette première Élégie et à une dizaine de versions françaises que nous faisons dialoguer ou s'opposer. Partant de premières considérations sur l'enveloppe prosodique et typographique du poème, qui nous permettent de saisir la diversité des entreprises et de cerner tant des lignes de force communes que la singularité d'expérimentations plus marginales, nous « confronterons » ensemble les quatre premières versions françaises de la première Élégie, accomplies quasi simultanément dans les années 1930 par des traducteurs d'horizons variés (un germaniste, J.F. Angelloz, une artiste-peintre, L. Albert-Lasard, un traducteur de métier, M. Betz, et un poète, A. Guerne). Il s'agira de saisir l'apport de chacune d'entre elles, ainsi que le type de lien qui les unit (ou les oppose). L'étude de la quatrième version, celle d'Armel Guerne, nous mènera presque naturellement vers la question de la perception de l'écart poétique et du caractère extra-ordinaire de l'original. A la lumière de cette problématique cardinale en poésie, nous procèderons à la comparaison de versions issues des cinquante dernières années et, en considérant plusieurs éléments de sens, nous tenterons de voir comment chaque traducteur, qui est aussi et avant tout un lecteur, a perçu et restitué dans son texte français la matière poétique propre de l'original. Au terme de ce parcours contrastif parmi différentes versions de la première Élégie, nous confronterons les résultats de notre analyse textuelle et le constat de concurrence qui se dégageait de la première partie. Il s'agira de voir alors si la pratique traductive, telle qu'elle se manifeste concrètement au niveau du texte, reflète un antagonisme particulier entre Poésie et Université, ou s'il convient au contraire de relativiser, voire démystifier cette dichotomie.
Resumo:
La thèse présentée ici est le résultat d'une étroite collaboration avec une ONG indienne, AKRSP(I), intervenant dans le développement de l'irrigation au Gujarat depuis plus de 25 ans. Un SIG prototype a été mis en oeuvre et nous permet de proposer ime analyse spatiale et quantitative de l'action de cette ONG ainsi qu'une réflexion plus générale sur les leviers de mise en valeur et de gestion des ressources en eau à des fins agricoles. On peut souligner trois principaux enseignements: Les perspectives d'application des SIG au sein des ONG sont manifestes. Les exigences des bailleurs de fonds peuvent néanmoins faire obstacle à leur développement car, indi-rectement, ils favorisent la mise en oeuvre de SI voués à la justification plutôt qu'à la planification et au suivi des programmes d'actions. Ce résultat soulève la question de la pertinence de l'encadrement, des critères d'évaluation et de la conditionnalité de l'aide publique au développement. Les ONG ont un fort potentiel pour participer à la mise en valeur des ressources en eau en Inde et aider à relever le défi agro-démographique indien, en particulier dans les zones marginales où les services étatiques sont en retrait. Les stratégies d'action basées principalement sur l'application des instruments économiques et techniques doivent cependant être modifiées. Nous montrons qu'elles favorisent une inégalité d'accès aux ressources qui débouche sur une efficacité limitée des pratiques d'irrigation, sur un plan agro-technique. Ces résultats soulignent la nécessité de poursuivre une réflexion critique des discours et solutions dominants en matière de gestion des ressources en eau. Deux pistes d'amélioration sont avancées: 1. considérer l'équité d'accès comme un moyen d'optimiser la gestion de la ressource (limiter le volume d'eau par agriculteur pour encourager les choix de cultures irriguées peu consommatrices et l'adoption des technologies d'économie d'eau), 2. prêter attention à l'ordre dans lequel les différents instruments de gestion disponibles sont employés afin de les articuler dans un séquençage temporel pertinent. La Political Ecology apparait comme un cadre conceptuel très pertinent pour engager cette réflexion critique. Elle permet d'intégrer différentes échelles d'asymétries de pouvoirs à la compréhension des situations et des blocages observables localement : inégalités de capabilités et forces socio-politiques à l'échelle locale, politiques agro-industrielles (coton) et jeux d'alliances politiques des castes à l'échelle nationale, discours et conflits idéologiques ou orientations stratégiques des bailleurs de fonds à l'échelle internationale... Notre recherche empirique contribue modestement au développement de cette Political Ecology de la mise en valeur et de la gestion des ressources en eau. - The present research is based on a close collaboration with an indian NGO, AKRSP(I), which is active in the development of irrigation facilities in Gujarat for the past 25 years. We built a GIS prototype providing quantitative and spatial datas to analyse the NGO intervention and propose a general reflection about water resources development and management issues. Three main findings may be emphasized : The potential of GIS within the workings of an NGO is obvious, as an information ma-nagement tool as much as for developing analytical capacity. However, financial backers expectations may not favour a relevant development of this technology. Indirectly, they promote Information Systems built to justify rather than to plan or monitor action pro¬grammes. This raises the question of stricter framework, conditionality criters and stan¬dardised assessment indicators surrounding official development assistance. There is strong potential that NGOs can assist with the improvement of water resources in India. They can help in overcoming Indian demographic-related agricultural challenges, especially in marginal rural areas neglected by state services. However, intervention strategies mainly based on technical and economic management tools has to be adapted. We found that they lead to inequitable access and distribution of water resources what induces a low efficiency of irrigation practices from an agro-technical point of view. These results underline the need to go further in criticizing dominant ideas and guidelines regarding water resources management. We suggest two other options : 1. to consider equitable access has a tool to improve the effective use of water for agricul¬tural purposes (limiting the volume of water available per farmer would encourage them to adopt low water consumption crops and water saving technics), 2. to consider more carefully the order of use of the various management tools available and to structure them in a relevant sequence. Here, Political Ecology seems to be a relevant conceptual framework to enter into such a critical reflection, integrating different levels and scales of political asymmetries at the core of environmental issues. Indeed, the understanding of regional water situations and social stumbling blocks needs not only to consider local capabilities and socio-political inequities, but also agro-industrial policy (e.i. cotton) and caste political alliances at a national scale, as well as ideological and narrative struggles or strategical orientations of financial backers at an international level. Our empirical research modestly contributes to the development of such a Political Ecology of water resources development and management.
Resumo:
RESUME L'obésité et l'hypertension atteignent des niveaux épidémiques aussi bien dans les pays industrialisés que dans ceux en voie de développement. La coexistence de ces deux pathologies est associée à un risque cardiovasculaire augmenté. Traditionnellement on mesure la pression artérielle (PA) au bras au moyen d'un brassard qui détermine la pression systolique et diastolique en utilisant soit la méthode auscultatoire ou oscillométrique. L'utilisation d'un brassard de taille standard chez le patient avec un tour de bras augmenté peut surestimer la pression artérielle. Il semble même qu'il existe un rapport idéal entre le tour de bras, et la taille du brassard La mesure à domicile de la pression artérielle avec des appareils validés donne des valeurs de la PA valables. Plusieurs appareils existent sur le marché et depuis quelques années les appareils de mesure de la PA au poignet font leur apparition sur le marché. Cette étude vise à comparer chez des sujets sains et obèses les valeurs de PA obtenues au poignet avec celles obtenues au bras en utilisant deux appareils validés l'OMRON HEM 705-CP et l'OMRON R6. L'OMRON HEM 705-CP permet l'utilisation soit d'un brassard standard (13x30 cm) ou d'un brassard large (16x38 cm), et l'OMRON R6 mesure la PA au poignet. Nous avons comparé un groupe de sujets obèses [Body Mass Index (BMI) >35kg/m2] avec un groupe de sujets sains (BMI <25kg/m2). Ont été exclues de l'étudé les personnes prenant un traitement antihypertenseur ainsi que celles souffrant d'arythmies. La PA a été mesurée en position assise avec le bras gauche sur une table à hauteur du coeur. Un brassard large a été employé pour les sujets obèses et un brassard standard pour les sujets sains. Trois mesures ont été effectuées, la première après une pause de 5 min et chacune des suivantes avec un intervalle de 2 min. La pression d'inflation maximale a été fixée à 170 mmHg. Nous avons utilisé la formule proposée par Marks LA et al pour déterminer si le rapport entre la taille des brassards fournis avec l'OMRON .HEM 705-CP et le tour de bras de nos sujets était optimal (taille du brassard = 9.34 x log10 taille du bras). Nos résultats ne montrent pas de différence statistiquement significative de la PA diastolique entre les deux groupes, qu'elle soit mesurée au bras ou au poignet. La PA systolique mesurée au bras s'est par contre avérée significativement plus basse chez les sujets obèses que chez les sujets sains. Aucune différence n'a été trouvée lorsque la mesure est effectuée au poignet. En utilisant la formule fournie par Marks le rapport entre taille du brassard (large chez les obèses) et tour de bras a été de 10.30±30 chez les sujets obèses et 9.630.45 chez les sujets sains (p<0.001). Le rapport entre tour de bras et brassard chez les sujets obèses est nettement au-dessus de la valeur optimale, ce qui suggère une possible sous-estimation de la PA systolique chez ces sujets. Ces résultats suggèrent qu'il existe un risque de sous-estimer la PA chez le patient obèse lors de l'utilisation d'un brassard large. Cette erreur pourrait être réduite par l'utilisation d'appareils de mesure au poignet. validés chez le sujet obèse.
Resumo:
Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
Seul manuel suisse de droit international privé à l'usage des étudiants et des praticiens, cet ouvrage est un guide pour l'apprentissage de la méthode et du droit positif. Il entend d'abord répondre aux besoins des étudiants suivant le cours général de droit international privé. Cependant, il s'adresse également aux praticiens désireux de retrouver les repères d'une matière souvent complexe. Les fondements seront ainsi acquis pour procéder à une étude plus approfondie et ciblée de l'une ou de l'autre des multiples facettes du droit international privé.
Resumo:
Rapport de synthèse Objectifs : Évaluer l'impact clinique de femmes infectées par de multiples papillomavirus human (HPV) à haut risque dont le HPV 16 en comparaison de l'évolution de femmes infectées par du HPV 16 seul. Méthode : 169 femmes ont été classifiées en trois groupes, dépendant de leur profile HPV: HPV-16 seul, HPV-16 et un HPV de type bas risque, HPV-16 et un autre HPV à haut risque. Le HPV-DNA des frottis cervicaux a été analysé par polymerase chain reaction (PCR) et reverse line blot hybridization (RLBH). Toutes les femmes ont été suivies à la consultation de colposcopie pour une durée de 24 mois ou plus. La prise en charge s'est faite selon les recommandations de Bethesda. Résultats : Les femmes infectées par du HPV 16 et un autre HPV à haut risque n'ont présenté aucun changement voire une progression de leur dysplasie en comparaison des femmes des autres groupes (RR: 1.39; 95%CI: 1.07 à 1.82; p value: 0.02 à 6 mois; RR: 2.10; 95%CI: 1.46 à 3.02; p value: <0.001 à 12 mois; RR: 1.82; 95%CI: 1.21 à 2.72; p value: 0.004 à 24 mois). Conclusions : Les femmes présentant une co-infection par du HPV 16 ainsi qu'un autre HPV de haut risque voient leur risque d'évolution défavorable augmenter.
Resumo:
Les difficultés que connaissent les démocraties représentatives occidentales sont tout aussi sévères que multiples. Le mouvement de néolibéralisation du monde qui a consisté à concevoir les Etats comme de simples agents économiques a puissamment contribué à éroder la confiance des citoyens en leurs institutions nationales et territoriales. Et pourtant cet amoncellement de difficultés et de crises n'a pas affaibli l'idéal démocratique...
Resumo:
SUMMARY Regulation of sodium excretion by the kidney is a key mechanism in the long term regulation of blood pressure, and when altered it constitutes a risk factor for the appearance of arterial hypertension. Aldosterone, which secretion depends upon salt intake in the diet, is a steroid hormone that regulates sodium reabsorption in the distal part of the nephron (functional unit of the kidney) by modulating gene transcription. It has been shown that it can act synergistically with the peptidic hormone insulin through the interaction of their signalisation pathways. Our work consisted of two distinct parts: 1) the in vitro and in vivo characterisation of Glucocorticoid-Induced Leucine Zipper (GILZ) (an aldosterone-induced gene) mechanism of action; 2) the in vitro characterisation of insulin mechanism of action and its interaction with aldosterone. GILZ mRNA, coded by the TSC22D3 gene, is strongly induced by aldosterone in the cell line of principal cells of the cortical collecting duct (CCD) mpkCCDc14, suggesting that GILZ is a mediator of aldosterone response. Co-expression of GILZ and the amiloride-sensitive epithelial sodium channel ENaC in vitro in the Xenopus oocyte expression system showed that GILZ has no direct effect on the ENaC-mediated Na+ current in basal conditions. To define the role of GILZ in the kidney and in other organs (colon, heart, skin, etc.), a conditional knock-out mouse is being produced and will allow the in vivo study of its role. Previous data showed that insulin induced a transepithelial sodium transport at supraphysiological concentrations. Insulin and the insulin-like growth factor 1 (IGF-1) are able to bind to each other receptor with an affinity 50 to 100 times lower than to their cognate receptor. Our starting hypothesis was that the insulin effect observed at these supraphysiological concentrations is actually mediated by the IGF receptor type 1 (IGF-1R). In a new cell line that presents all the characteristics of the principal cells of the CCD (mCCDc11) we have shown that both insulin and IGF-1 induce a physiologically significant increase of Na+ transport through the activation of IGF-1R. Aldosterone and insulin/IGF-1 have an additive effect on Na+ transport, through the activation of the PI3-kinase (PI3-K) pathway and the phosphorylation of the serum- and glucocorticoid-induced kinase 1 (Sgk1) by the IGF-1R, and the induction of Sgk1 expression by aldosterone. Thus, Sgk1 integrates IGF-1/insulin and aldosterone effects. We suggest that IGF-1 is physiologically relevant in the modulation of sodium balance, while insulin can only regulate Na+ transport at supraphysiological conditions. Both hormones would bind to the IGF-1R and induce Na+ transport by activating the PI3-K PDK1/2 - Sgk1 pathway. We have shown for the first time that Sgk1 is expressed and phosphorylated in principal cells of the CCD in basal conditions, although the mechanism that maintains Sgk1 phosphorylation is not known. This new role for IGF-1 suggests that it could be a salt susceptibility gene. In effect, IGF-1 stimulates Na+ and water transport in the kidney in vivo. Moreover, 35 % of the acromegalic patients (overproduction of growth hormone and IGF-1) are hypertensives (higher proportion than in normal population), and genetic analysis suggest a link between the IGF-1 gene locus and blood pressure. RÉSUMÉ La régulation de l'excrétion rénale de sodium (Na+) joue un rôle principal dans le contrôle à long terme de la pression sanguine, et ses altérations constituent un facteur de risque de l'apparition d'une hypertension artérielle. L'aldosterone, dont la sécrétion dépend de l'apport en sel dans la diète, est une hormone stéroïdienne qui régule la réabsorption de Na+ dans la partie distale du nephron (unité fonctionnelle du rein) en contrôlant la transcription de gènes. Elle peut agir de façon synergistique avec l'hormone peptidique insuline, probablement via l'interaction de leurs voies de signalisation cellulaire. Le but de notre travail comportait deux volets: 1) caractériser in vitro et in vivo le mécanisme d'action du Glucocorticoid Induced Leucine Zipper (GILZ) (un gène induit par l'aldosterone); 2) caractériser in vitro le mécanisme d'action de l'insuline et son interaction avec l'aldosterone. L'ARNm de GILZ, codé par le gène TSC22D3, est induit par l'aldosterone dans la lignée cellulaire de cellules principales du tubule collecteur cortical (CCD) mpkCCDc14, suggérant que GILZ est un médiateur potentiel de la réponse à l'aldosterone. La co-expression in vitro de GILZ et du canal à Na+ sensible à l'amiloride ENaC dans le système d'expression de l'oocyte de Xénope a montré que GILZ n'a pas d'effet sur les courants sodiques véhiculées par ENaC en conditions basales. Une souris knock-out conditionnelle de GILZ est en train d'être produite et permettra l'étude in vivo de son rôle dans le rein et d'autres organes. Des expériences préliminaires ont montré que l'insuline induit un transport transépithelial de Na+ à des concentrations supraphysiologiques. L'insuline et l'insulin-like growth factor 1 (IGF-1) peuvent se lier à leurs récepteurs réciproques avec une affinité 50 à 100 fois moindre qu'à leur propre récepteur. Nous avons donc proposé que l'effet de l'insuline soit médié par le récepteur à l'IGF type 1 (IGF-1R). Dans une nouvelle lignée cellulaire qui présente toutes les caractéristiques des cellules principales du CCD (mCCDc11) nous avons montré que les deux hormones induisent une augmentation physiologiquement significative du transport du Na+ par l'activation des IGF-1 R. Aldosterone et insuline/IGF-1 ont un effet additif sur le transport de Na+, via l'activation de la voie de la PI3-kinase et la phosphorylation de la serum- and glucocorticoid-induced kinase 1 (Sgk1) par l'IGF-1R, dont l'expression est induite par l'aldosterone. Sgk1 intègre les effets de l'insuline et l'aldosterone. Nous proposons que l'IGF-1 joue un rôle dans la modulation physiologique de la balance sodique, tandis que l'insuline régule le transport de Na+ à des concentrations supraphysiologiques. Les deux hormones agissent en se liant à l'IGF-1R et induisent le transport de Na+ en activant la cascade de signalisation PI3-K - PDK1/2 - Sgk1. Nous avons montré pour la première fois que Sgk1 est exprimée et phosphorylée dans des conditions basales dans les cellules principales du CCD, mais le mécanisme qui maintient sa phosphorylation n'est pas connu. Ce nouveau rôle pour l'IGF-1 suggère qu'il pourrait être un gène impliqué de susceptibilité au sel. Aussi, l'IGF-1 stimule le transport rénal de Na+ in vivo. De plus, 35 % des patients atteints d'acromégalie (surproduction d'hormone de croissance et d'IGF-1) sont hypertensifs (prévalence plus élevée que la population normale), et des analyses génétiques suggèrent un lien entre le locus du gène de l'IGF-1 et la pression sanguine. RÉSUMÉ GRAND PUBLIC Nos ancêtres se sont génétiquement adaptés pendant des centaines de millénaires à un environnement pauvre en sel (chlorure de sodium) dans la savane équatoriale, où ils consommaient moins de 0,1 gramme de sel par jour. On a commencé à ajouter du sel aux aliments avec l'apparition de l'agriculture (il y a 5000 à 10000 années), et aujourd'hui une diète omnivore, qui inclut des plats préparés, contient plusieurs fois la quantité de sodium nécessaire pour notre fonction physiologique normale (environ 10 grammes par jour). Le corps garde sa concentration constante dans le sang en s'adaptant à une consommation très variable de sel. Pour ceci, il module son excrétion soit directement, soit en sécrétant des hormones régulatrices. Le rein joue un rôle principal dans cette régulation puisque l'excrétion urinaire de sel change selon la diète et peut aller d'une quantité dérisoire à plus de 36 grammes par jour. L'attention qu'on prête au sel est liée à sa relation avec l'hypertension essentielle. Ainsi, le contrôle rénal de l'excrétion de sodium et d'eau est le principal mécanisme dans la régulation de la pression sanguine, et une ingestion excessive de sel pourrait être l'un des facteurs-clé déclenchant l'apparition d'un phénotype hypertensif. L'hormone aldosterone diminue l'excrétion de sodium par le rein en modulant l'expression de gènes qui pourraient être impliqués dans la sensibilité au sel. Dans une lignée cellulaire de rein l'expression du gène TSC22D3, qui se traduit en la protéine Glucocorticoid Induced Leucine Zipper (GILZ), est fortement induite par l'aldosterone. Ceci suggère que GILZ est un médiateur potentiel de l'effet de l'aldosterone, et pourrait être impliqué dans la sensibilité au sel. Pour analyser la fonction de GILZ dans le rein plusieurs approches ont été utilisées. Par exemple, une souris dans laquelle GILZ est spécifiquement inactivé dans le rein est en train d'être produite et permettra l'étude du rôle de GILZ dans l'organisme. De plus, on a montré que GILZ, en conditions basales, n'a pas d'effet direct sur la protéine transportant le sodium à travers la membrane des cellules, le canal sodique épithélial ENaC. On a aussi essayé de trouver des protéines qui interagissent directement avec GILZ utilisant une technique appelée du « double-hybride dans la levure », mais aucun candidat n'a émergé. Des études ont montré que, à de hautes concentrations, l'insuline peut aussi diminuer l'excrétion de sodium. A ces concentrations, elle peut activer son récepteur spécifique, mais aussi le récepteur d'une autre hormone, l'Insulin-Like Growth Factor 1 (IGF-1). En plus, l'infusion d'IGF-1 augmente la rétention rénale de sodium et d'eau, et des mutations du gène codant pour l'IGF-1 sont liées aux différents niveaux de pression sanguine. On a utilisé une nouvelle lignée cellulaire de rein développée dans notre laboratoire, appelée mCCDc11, pour analyser l'importance relative des deux hormones dans l'induction du transport de sodium. On a montré que les deux hormones induisent une augmentation significative du transport de sodium par l'activation de récepteurs à l'IGF-1 et non du récepteur à l'insuline. On a montré qu'à l'intérieur de la cellule leur activation induit une augmentation du transport sodique par le biais du canal ENaC en modifiant la quantité de phosphates fixés sur la protéine Serumand Glucocorticoid-induced Kinase 1 (Sgk1). On a finalement montré que l'IGF-1 et l'aldosterone ont un effet additif sur le transport de sodium en agissant toutes les deux sur Sgk1, qui intègre leurs effets dans le contrôle du transport de sodium dans le rein.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.
Resumo:
Résumé :Introduction : La mitoxantrone est un anthracénédione cytostatique aux ef¬fets immunosuppresseurs et -modulateurs qui est administré entre autre dans les évolutions graves de la sclérose en plaques (SEP). Peu d'études concernant l'efficacité et la tolérance de la mitoxantrone ont été publiées. Un travail de re¬cherche statistique s'imposait en raison du nombre de patients souffrant de SEP traités par ce médicament dans le service de neurologie de l'hôpital cantonal d'Aarau.Méthode : Au total, 66 patients souffrant de SEP ont été traités par la mi¬toxantrone dans la période 07/2000-06/2007. 48 d'entre eux avaient reçu préa¬lablement une autre substance modifiant l'évolution de la maladie (« prétrai¬tement » : interféron bêta-la/b, glatirameracétate, azathioprine). Dans cette étude rétrospective, nous avons comparé l'effet de la mitoxantrone par rapport au prétraitement mentionné ci-dessus. Les paramètres appliqués concernaient l'évolution de l'expanded disability status scale (EDSS) et le nombre annuel de poussées pendant la durée du traitement. Une influence du type de SEP, de l'âge au début du traitement par la mitoxantrone, du sexe, de la durée de la théra¬pie et de la maladie ainsi que de la dose cumulative de la mitoxantrone a été recherchée. Nous avons également discuté des éventuels effets indésirables surve¬nus. Nous n'avons pas différencié les substances du prétraitement, étant donné qu'elles avaient été appliquées dans des combinaisons multiples. L'évaluation sta¬tistique a été effectuée en respectant les indications du test de Mann-Whitney ainsi que du Wilcoxon signed-rank test.Résultats : En moyenne, l'EDSS s'est stabilisée (-0,05/année chez tous les 66 patients) tandis que la maladie avait progressé de 0,32/année sous le pré¬traitement (la différence est significative avec p=0,0004 au Wilcoxon signed- rank test bilatéral). Sous le prétraitement, les patients avaient subi en moyenne 1,72 poussées par année, sous la mitoxantrone 0,26 (différence significative avec p<0,0001). La thérapie a dû être arrêtée à cause d'effets indésirables chez quatre patients sous la mitoxantrone (deux avec une granulocytopénie, deux avec une diminution de la fraction d'éjection cardiaque).Discussion : La mitoxantrone s'est avéré une substance particulièrement ef¬ficace même dans les situations dans lesquelles le décours de la maladie n'a pas pu être influencé par d'autres médicaments. Ses effets indésirables doivent être pondérés par rapport à la progression de la maladie et aux effets indési¬rables des autres substances. Les schémas d'application varient beaucoup dans la littérature et doivent être mieux définis.Zusammenfassung :Einleitung: Mitoxantron ist ein zytostatisches Anthracenedion mit immunsup- pressiven und -modulatorischen Eigenschaften, das unter anderem bei schwe¬ren Verläufen der Multiplen Sklerose eingesetzt wird. Bisher befassten sich nur wenige randomisierte und plazebokontrollierte Studien mit Wirksamkeit und Tolerabilität des Medikamentes.Methoden: 66 MS-Patienten der neurologischen Klinik des Kantonsspitals Aar- au wurden zwischen Juli 2000 und Juni 2007 mit Mitoxantron behandelt. 48 davon erhielten zuvor eine MS-spezifische Behandlung mit Interferon ß-1 a oder b, Glatirameracetat oder Azathioprin. Anhand der Veränderung der Expanded Disability Status Scale (EDSS) und der jährlichen Schubrate und mit Hilfe von MRI-Aufnahmen zeichneten wir retrospektiv die Wirksamkeit der Behandlung nach und stellten sie in Beziehung zu einer eventuell erfolgten Vorbehandlung. Des weiteren wurde die Effektivität in Verhältnis zu den Faktoren Verlaufsform, Alter bei Behandlungsbeginn, Behandlungszeit sowie weiteren Parametern ge¬bracht. Wir verglichen die Wirkung von Mitoxantron bei den noch laufenden Behandlungen mit der bei den bereits abgeschlossenen und wir diskutierten die Veränderung von MRI-Aufnahmen des ZNS unter der Therapie mit Mitoxan¬tron. Nebenwirkungen wurden erwähnt.Resultate: Im Durchschnitt wurde der EDSS-Wert stabilisiert (-0, 05/Jahr bei allen 66 Patienten), während die Krankheit unter der verlaufsmodifizierenden Vorbehandlung um durchschnittlich 0,32/Jahr fortschritt (Unterschied signifi¬kant mit p=0,0004 im zweiseitigen Wilcoxon signed-rank test). Die Schubrate betrug 0,26 unter Mitoxantron gegenüber 1,72/Jahr unter Vorbehandlung (Un¬terschied signifikant mit p<0,0001). Bei vier Patienten musste die Therapie auf¬grund von Nebenwirkungen abgebrochen werden (zweimal Granulozytopenie, zweimal verminderte kardiale Auswurffraktion).Diskussion: Mitoxantron ist offensichtlich selbst dann eine äusserst effektive verlaufsmodifizierende Substanz, wenn die Krankheit durch andere Medikamen¬te nicht zu beeinflussen ist. Die Risiken des Medikamentes müssen gegen das Krankheitsfortschreiten und die Nachteile anderer verlaufsmodifizierender Sub¬stanzen abgewogen werden. Die Anwendungsalgorithmen für Mitoxantron vari¬ieren in der Literatur sehr und müssen besser definiert werden.
Resumo:
Während im Kanton Freiburg durchschnittlich 2'500 Lottos pro Jahr veranstaltet werden, sind es im Kanton Zürich gerade einmal 150. Der Kanton Schaffhausen kennt keine gesetzlichen Bestimmungen zu Kleinlotterien, Tombolas oder Lottos, der Kanton Waadt dagegen regelt sogar die Farbe der Lottokarten. Obwohl der Bund umfassende Gesetzgebungskompetenz im Bereich der Glücksspiele innehat, trifft er im Lotteriegesetz keine abschliessenden Regelungen für gemeinnützige und wohltätige Lotterien. Für Unterhaltungslotterien sieht er sogar einen absoluten Vorbehalt des kantonalen Rechts vor. Die Folge davon ist eine fast unüberschaubare Vielzahl von Regelungen, die sich von Kanton zu Kanton unterscheiden. Eine syste¬matische Über¬sicht fehlt bis anhin ebenso wie eine Gesamterhebung der in den letzten Jahren durchgeführten Tombolas und Lottos. Die vorliegende Arbeit will diese Lücke schliessen. Sie untersucht, welche gesetzlichen Regelungen es für Kleinlotterien, Tombolas und Lottos in den Kantonen gibt und wie oft diese veranstaltet werden. Die dabei umgesetzten Geld¬summen werden miteinander verglichen. Alors qu'en moyenne, 2500 lotos sont organisés chaque année dans le canton de Fribourg, seuls 150 le sont sur une même période dans le canton de Zürich. Le canton de Schaffhouse ne dispose pas de loi concernant les petites loteries, les tombolas ou les lotos, alors que le canton de Vaud va jusqu'à définir la couleur des cartons pour les lotos. On constate que même si la Confédération possède une compétence législative globale en matière de jeux de hasard, elle n'a pas légiféré exhaustivement la matière des loteries servant à des fins d'utilité publique ou de bienfaisance. De plus, la compétence législative en matière de loterie organisée à l'occasion d'une réunion récréative est déléguée au niveau cantonal. Par conséquent, on observe une multitude presque confuse de différentes régulations cantonales. Actuellement, il est impossible d'avoir une vue d'ensemble systématique ainsi qu'une statistique globale contenant des données des tombolas et lotos organisés dans les différents cantons. Ce travail vise à combler cette lacune en analysant quelques régulations cantonales pour les petites loteries, tombolas et lotos, en comparant le nombre de fois que ces loteries sont organisées ainsi que les sommes dépensées pour ces mêmes loteries.
Resumo:
Lire Certeau en théologien, c'est consonner avec une articulation à l'histoire, vue dans ses discontinuités et comme lieu de productions, imaginaires et autres, et ainsi scène d'un désir et d'une exposition maximale au monde. On renvoie alors à un excès, jamais dit directement, mais en travail au coeur du présent et de l'immanence. Lire Certeau en théologien, c'est assumer ainsi une modernité signant la fin du rapport à un cosmos différencié et signifiant, pour entrer dans une passion de l'Unique, absent. Au creux d'une perte, d'un exil, d'une épreuve, qu'attestent les mystiques, eux qui disent un corps à corps avec le monde, une altération originaire, un avènement singulier. Et qui les écrivent. Or, la théologie est justement articulée à de la mémoire, textuelle et fictive, et aux jeux institutionnels à laquelle cette mémoire émarge, fût-ce sur mode d'écart ou de dissidence ; et son travail passe par l'anthropologie d'un croire, de dimension radicalement humaine et irréductible en l'humain. S'y dit une subversion, non un dépassement, du monde.
Resumo:
Les ordinateurs de poche ont le potentiel de devenir un outil de travail indispensable pour le médecin praticien. De part une facilité d'utilisation toujours plus grande, un format ultra-portable, une grande capacité de stockage de l'information et de synchronisation à de multiples bases de données, ils permettent l'accès en tout temps et littéralement au lit du malade à une gamme complète de ressources médicales. Cet article se veut une lllustration des différentes possibilités d'utilisation de ces nouveaux outils, au travers de situations cliniques banales rencontrées par tout praticien.