1000 resultados para Analyse exploratoire par composantes principales
Resumo:
Introduction: Les études GVvA (Genome-wide association ,-studies) ont identifié et confirmé plus de 20 gènes de susceptibilité au DT2 et ont contribué à mieux comprendre sa physiopathologie. L'hyperglycémie à jeun (GJ), et 2 heures après une HGPO (G2h) sont les deux mesures cliniques du diagnostic du DT2. Nous avons identifié récemment la G6P du pancréas (G6PC2) comme déterminant de la variabilité physiologique de la GJ puis Ie récepteur à la mélatonine (MTNRIB) qui de plus lie la régulation du rythme circadien au DT2. Dans ce travail nous avons étudié la génétique de la G2h à l'aide de l'approche GWA. Résultats: Nous avons réalisé une méta-analyse GWA dans le cadre de MAGIC (Meta-Analysis of Glucose and Insulin related traits Consortium) qui a inclus 9 études GWA (N=15'234). La réplication de 29 loci (N=6958-30 121, P < 10-5 ) a confirmé 5 nouveaux loci; 2 étant connus comme associés avec Ie DT2 (TCF7L2, P = 1,6 X 10-10 ) et la GJ (GCKR, p = 5,6 X 10-10 ); alors que GIPR (p= 5,2 X 10-12), VSP13C (p= 3,9 X 10-8) et ADCY5 (p = 1,11 X 10-15 ) sont inédits. GIPR code Ie récepteur au GIP (gastric inhibitory polypeptide) qui est sécrété par les ceIlules intestinales pour stimuler la sécrétion de l'insuline en réponse au glucose (l'effet incrétine). Les porteurs du variant GIPR qui augmente la G2h ont également un indice insulinogénique plus bas, (p= 1,0 X 10-17) mais ils ne présentent aucune modification de leur glycémie suite à une hyperglycémie provoquée par voie veineuse (p= 0,21). Ces résultats soutiennent un effet incrétine du locus GIPR qui expliquerait ~9,6 % de la variance total de ce trait. La biologie de ADCY5 et VPS13C et son lien avec l'homéostasie du glucose restent à élucider. GIPR n'est pas associé avec le risque de DT2 indiquant qu'il influence la variabilité physiologique de la G2h alors que le locus ADCY5 est associé avec le DT2 (OR = 1,11, P = 1,5 X 10-15). Conclusion: Notre étude démontre que l'étude de la G2h est une approche efficace d'une part pour la compréhension de la base génétique de la physiologie de ce trait clinique important et d'autre part pour identifier de nouveaux gènes de susceptibilité au DT2.
Resumo:
La transparence administrative s'est développée dans la plupart des pays durant les 30 dernières années notamment grâce à l'introduction des lois sur l'accès à l'information. Les pratiques de l'administration devraient par conséquent consacrer ce changement de culture, passant d'une logique du secret à celle d'une ouverture quant aux informations disponibles. De nombreuses études ont cependant démontré que les administrations restaient assez réticentes à divulguer l'information dont elles disposent et qu'elles développent des stratégies et des comportements limitant ce nouveau droit. Cet article présente une nouvelle méthodologie d'analyse des processus permettant la transparence (la transparence de la transparence) et la teste de manière exploratoire sur les entités de l'administration fédérale suisse.
Resumo:
Abstract : Host-Cell Factor 1 (HCF-1) was first discovered in the study of the herpes simplex virus (HSV) infection. HCF-1 is one of the two cellular proteins that compose the VP16-induced complex, a key activator of HSV lytic infection. lncleed, when HSV infects human cells, it is able to enter two modes of infection: lytic or latent. The V`P16-induced complex promotes the lytic mode and in so doing the virus targets important cellular regulatory proteins, such as HCF-1, to manipulate the status of the infected cell. Indeed, HCF-1 regulates human cell proliferation and the cell cycle at different steps. In human, HCF-1 is unusual in that it undergoes a process of proteolytic maturation that results from cleavages at six centrally located 26 amino acid repeats called HCF-1pro repeats. This generates a heterodimeric complex of stably associated amino- (HCF-1n) and carboxy- (HCF-1c) terminal subunits. The absence of the HCF-1 N or HCF-1; subunit leads predominantly to either G1 or M phase defects, respectively. We have hypothesized that HCF-1 forms a heterodimeric complex to permit communication between the two subunits of HCF-1 involved in regulating different phases of the cell cycle. Indeed, there is evidence for such inter-subunit communication because a point mutation called P134S in the HCF-1N subunit in the temperature-sensitive hamster cell line tsBN67 causes, addition to G1- phase defects associated with the HCF-1n subunit, M-phase defects similar to the defects seen upon loss of HCF-1 function. Furthermore, inhibition of the proteolytic maturation of HCF-1 by deletion of the six HCF-1pro repeats (HCF-1Aimo) also leads to M-phase defects, specifically cytokinesis defects leading to binucleation, indicating that there is loss of HCF-15 function in the absence of HCF-1 maturation. I demonstrate that individual point mutations in each of the six HCF-1pro repeats that prevent HCF-1 proteolytic maturation also lead to binucleation; however, this defect can be latgely rescued by the presence of just one HCF-1pRO sequence in I-ICF»1. These results argue that processing itself is important for the HCF-1g function. In fact, until now, the hypothesis was that the proteolytic processing per se is more important for HCF-1C function than the proteolytic processing region. But I show that processing per se is not sufticient to rescue multinucleation, but that the HCF-lpm sequence itself is crucial. This discovery leads to the conclusion that the I-ICF-1pRO repeats have an additional function important for HCF-le function. From the studies of others, one potential function of the HCF-lrxo tepeats is as a binding site for O-link NAcetyl glycosamine tansferase (OGT) to glycosylate an HCF-1n-sunbunit region called the Basic region. This new function suggests the Basic region of HCF-1n is also implicated in the communication between the two subunits. This inter-subunit communication was analyzed in more detail with the studies of the Pl34S mutation and the residues 382-450 region of HCF-l that when removed prevents HCF-l subunit association. I demonstrate that the point mutation also leads to a binucleation defect in Hela cells as well as in the tsBN67 cells. In addition, the effect of this mutation on the regulation of HCF-1c activity seems to interfere with that of the HCF-lpgg repeats because the sum of the deletion of the proteolytic processing region and the point mutation surprisingly leads to re-establishment of correct cytokinesis. The study of the 382-450 HCF-lN region also yielded surprising results. This region important for the association of the two subunits is also important for both HCF-1c function in M phase and G1 phase progression. Thus, I have discovered two main functions of this region: its role in the regulation of HCF-lc function in M phase and its involvement in the regulation of G1/S phase ?- an HCF-1n function. These results support the importance of inter-subunit communication in HCF-1 functions. My research illuminates the understanding of the interaction of the two subunits by showing that the whole HCF-1n subunit is involved in the inter-subunit communication in order to regulate HCF-1c function. For this work, I was concentrated on the study of cytokinesis; the first phenotype showing the role of HCF-1c in the M phase. Then, I extended the study of the M phase with analysis of steps earlier to cytokinesis. Because some defects in the chromosome segregation was already described in the absence of HCF-1, I decided to continue the study of M phase by checking effects on the chromosome segregation. I showed that the HCF-1n subunit and HCF-1pro repeats are both important for this key step of M phase. I show that the binucleation phenotype resulting from deletion or mutation in HCF-1pro repeats, Pl34S point mutation or the lack of the region 382-450 are correlated with micronuclei, and chromosome segregation and alignment defects. This suggests that HCF«lç already regulates M phase during an early step and could be involved in the complex regulation of chromosome segregation. Because one of the major roles of HCF-1 is to be a transcription regulator, I also checked the capacity of HCF-1 to bind to the chromatin in my different cell lines. All my recombinant proteins can bind the chromatin, except for, as previously described, the HCF-1 with the P134S point mutation, This suggests that the binding of HCF-1 to the chromatin is not dependant to the Basic and proteolytic regions but more to the Kelch domain. Thus, if the function of HCF-ig in M phase is dependant to its chromatin association, the intercommunication and the proteolytic region are not involved in the ability to bind to the chromatin but more to bind to the right place of the chromatin or to be associated with the co-factors. Résumé : L'étude de l'infection par le virus Herpes Simplex (HSV) a permis la découverte de la protéine HCF-1 (Host-Cell Factor). HCF-1 est une des protéines cellulaires qui font partie du complexe induit par VP16 ; ce complexe est la clef pour l'activation de la phase lytique de HSV. Afin de manipuler les cellules infectées, le complexe induit pas le VPIG devrait donc cibler les protéines importantes pour la régulation cellulaire, telles que la protéine HCF-1. Cette dernière s'avère donc être un senseur pour la cellule et devrait également jouer un rôle de régulation lors des différentes phases du cycle cellulaire. Chez l'humain, HCF-1 a la particularité de devoir passer par une phase de maturation pour devenir active. Lors de cette maturation, la protéine subit une coupure protéolytique au niveau de six répétitions composées de 26 acides aminés, appelé HCF-1pro repeats. Cette coupure engendre la formation d'un complexe formé de deux sous-unités, HCF-1n et HCF-1c, associées l'une à l'autre de façon stable. Enlever la sous-unité HCF-IN ou C entraîne respectivement des défauts dans la phase G1 et M. Nous pensons donc que HCF-1 forme un complexe hétérodimérique afin de permettre la communication entre les molécules impliquées dans la régulation des différentes phases du cycle cellulaire. Cette hypothèse est déduite suite à deux études: l'une réalisée sur la lignée cellulaire tsBN67 et l'autre portant sur l'inhibition de la maturation protéolytique. La lignée cellulaire tsBN67, sensible à la température, porte la mutation Pl 345 dans la sous-unité HCF-1n. Cette mutation, en plus d'occasionner des défauts dans la phase G1 (défauts liés à la sous-unité HCF-1N), a aussi pour conséquence d'entrainer des défauts dans la phase M, défauts similaires à ceux dus a la perte de la sous-unité HCF-1c. Quant à la maturation protéolytique, l'absence de la région de la protéolyse provoque la binucléation, défaut lié à la cytokinèse, indiquant la perte de la fonction de la sous-unité HCF-1c. Au cours de ma thèse, j'ai démontré que des mutations dans les HCF-1=no repeats, qui bloquent la protéolyse, engendrent la binucléation ; cependant ce défaut peut être corrigé pas l'ajout d'un HCF-1pro repeat dans un HCF-1 ne contenant pas la région protéolytique. Ces résultats soutiennent l'idée que la région protéolytique est importante pour le bon fonctionnement de HCF-1c. En réalité jusqu'a maintenant on supposait que le mécanisme de coupure était plus important que la région impliquée pour la régulation de la fonction de HCF-1;. Mais mon étude montre que la protéolyse n'est pas suffisante pour éviter la binucléation ; en effet, les HCF-1pro repeats semblent jouer le rôle essentiel dans le cycle cellulaire. Cette découverte conduit à la conclusion que les HCF-1pro repeats ont sûrement une fonction autre qui serait cruciale pour la foncton de HCF-1c. Une des fonctions possibles est d'être le site de liaison de l'O-linked N-acetylglucosamine transférase (OGT) qui glycosylerait la région Basique de HCF-1n. Cette nouvelle fonction suggère que la région Basique est aussi impliquée dans la communication entre les deux sous- unités. L'intercommunication entre les deux sous-unités ai été d'ailleurs analysée plus en détail dans mon travail à travers l'étude de la mutation Pl34S et de la région 382-450, essentielle pour l'association des deux sous»unités. J'ai ainsi démontré que la mutation P134S entraînait aussi des défauts dans la cytokinése dans la lignée cellulaire Hela, de plus, son influence sur HCF-1c semble interférer avec celle de la région protéolytique. En effet, la superposition de ces deux modifications dans HCF-1 conduit au rétablissement d'une cytokinése correcte. Concernant la région 382 à 450, les résultats ont été assez surprenants, la perte de cette région provoque l'arrêt du cycle en G1 et la binucléation, ce qui tend à prouver son importance pour le bon fonctionnement de HCF-1n et de HCF-1c. Cette découverte appuie par conséquent l'hypotl1èse d'une intercommunicatzion entre les deux sous-unités mettant en jeu les différentes régions de HCF-1n. Grâce à mes recherches, j'ai pu améliorer la compréhension de l'interaction des deux sous-unités de HCF-1 en montrant que toutes les régions de HCF-1n sont engagées dans un processus d'intercommunication, dont le but est de réguler l'action de HCF-1c. J'ai également mis en évidence une nouvelle étape de la maturation de HCF-1 qui représente une phase importante pour l'activation de la fonction de HCF-1c. Afin de mettre à jour cette découverte, je me suis concentrée sur l'étude de l'impact de ces régions au niveau de la cytokinése qui fut le premier phénotype démontrant le rôle de HCF-1c dans la phase M. A ce jour, nous savons que HCF-1c joue un rôle dans la cytokinèse, nous ne connaissons pas encore sa fonction précise. Dans le but de cerner plus précisément cette fonction, j'ai investigué des étapes ultérieures ai la cytokinèse. Des défauts dans la ségrégation des chromosomes avaient déjà été observés, ai donc continué l'étude en prouvant que HCF-1n et les HCF-1pro repeats sont aussi importants pour le bon fonctionnement de cette étape clef également régulée par HCF-1c. J' ai aussi montré que la région 382-450 et la mutation P134S sont associées à un taux élevé de micronoyaux, de défauts dans la ségrégation des chromosomes. L'une des fonctions principales de HCF-1 étant la régulation de la transcription, j'ai aussi contrôlé la capacité de HCF-1 à se lier à la chromatine après insertion de mutations ou délétions dans HCF-1n et dans la région protéolytique. Or, à l'exception des HCF-1 contenant la mutation P134S, la sous-unité HCF-1c des HCF-1 tronquées se lie correctement à la chromatine. Cette constatation suggère que la liaison entre HCF-1c et chromatine n'est pas dépendante de la région Basique ou Protéolytique mais peut-être vraisemblablement de la région Kelch. Donc si le rôle de HCF-1c est dépendant de sa capacité â activer la transcription, l'intercommunication entre les deux sous-unités et la région protéolytique joueraient un rôle important non pas dans son habileté à se lier à la chromatine, mais dans la capacité de HCF-1 à s'associer aux co-facteurs ou à se placer sur les bonnes régions du génome.
Resumo:
L'Etude Suisse de Cohorte VIH a été mise en place en 1988. Plusieurs centres participent à cette étude : les hôpitaux universitaires de Zurich, Berne, Bâle, Genève et Lausanne, les hôpitaux cantonaux de Saint-Gall et du Tessin, 14 hôpitaux régionaux, ainsi que 35 praticiens privés. Cette étude a collecté des données de plus de 16500 personnes infectées par le VIH, de 1981 jusqu'aujourd'hui.¦Actuellement, plus de 7000 patients sont suivis tous les 6 mois. Parmi les analyses demandées au cours de ce suivi figure un test annuel de dépistage de la syphilis. Ce dépistage consiste en un test TPHA (Treponema Pallidum Haemagglutination Assay) où l'on observe l'hémagglutination de globules rouges qui ont absorbé des antigènes du tréponème, ou ses équivalents LIAISON et ARCHITECT.¦Si ce test TPHA est positif, un test VDRL, qui détecte des anticorps dirigés contre la cardiolipine, est effectué.¦Pour des raisons économiques, ce dépistage annuel systématique de la syphilis est remis en question par l'un des médecins praticiens participant à l'Etude Suisse de Cohorte VIH, estimant que ce dépistage ne devrait être demandé chaque année que chez les personnes étant identifiées comme à risque.¦Notre objectif est d'évaluer la nécessité de faire un dépistage de la syphilis annuel chez tous les patients de la Cohorte en comparaison à un dépistage annuel seulement chez le groupe jugé à risque.¦Pour pouvoir répondre à cette question, nous allons dans un premier temps faire une analyse descriptive : nous allons analyser quels patients ont développé une séroconversion en fonction de l'âge, du sexe et de la voie d'infection du VIH la plus probable (voie homosexuelle, hétérosexuelle ou consommation de drogues).¦Une conversion du test TPHA de négatif à positif n'est pas toujours synonyme d'infection à treponema pallidum. Une infection diagnostiquée au stade primaire et traitée efficacement ne provoque pas nécessairement des anticorps. A l'inverse, le test TPHA peut être faussement positif dû à une réaction croisée (p.ex. framboesie) ou non-spécifique (maladies auto-immunes). Pour l'analyse descriptive nous devons toutefois nous limiter à la séroconversion.¦Pour pouvoir faire cette analyse nous devons extraire certaines données, et procéder à un « nettoyage » de celles-ci : en effet, nous ne pouvons garder que les données des 700 patients ayant au moins un test initial de TPHA négatif, suivi d'un test TPHA positif avec un VDRL positif.¦Puis nous allons faire une étude « cas-témoins » pour comparer l'anamnèse sexuelle des patients présentant une séroconversion avec celle des patients qui n'ont pas développé d'anticorps, afin d'évaluer si nous pouvons définir, d'après l'anamnèse sexuelle, un groupe de sujets plus à risque de développer une syphilis. Cas et témoins seront stratifiés selon l'âge, le sexe et le mode d'infection du VIH.¦Comme troisième étape nous allons définir, pour un sous-échantillon, si le résultat positif du dépistage a permis de diagnostiquer la syphilis ou si le diagnostique avait déjà été établi grâce à la présence de symptômes.¦Etant donné que ce dépistage systématique est remis en cause pour des raisons financières, nous allons finalement, au cours de cette étude, estimer le coût des différentes options.¦Notre hypothèse, tirée d'après les déclarations de cas de syphilis de l'OFSP (Office Fédéral de la Santé Publique) et l'expérience des cliniciens, est que l'on trouve en effet que les homosexuels de moins de 50 ans représentent un grand pourcentage des personnes infectées par la syphilis. Cependant, nous ne savons pas si la fréquence d'infection des autres groupes de patients est suffisamment élevée pour justifier ce dépistage systématique.
Resumo:
(Résumé de l'ouvrage) Dans cet ouvrage réunissant théologiens et philosophes, le corps contemporain est pensé par rapport à ce qui l'excède, ce qui le met en scène, ce qui le reprend, ce qui le transforme aujourd'hui. Dans une première partie, l'ouvrage propose des éclairages sur le corps à partir de ce qui met en question sa vision strictement rationnelle. Puis, trois auteurs évoquent les différentes manières dont la Bible, la philosophie et la littérature contemporaine mettent en scène les corps. Dans une troisième partie, sont abordées des questions plus spécifiquement reliées à la tradition catholique, au christianisme primitif et à la pratique de l'ascèse. Enfin, quatre contributions explorent le défi posé par la déréalisation du corps dans nos sociétés d'aujourd'hui, avec, pour clore l'ensemble, une réflexion sur le dualisme qui traverse le questionnement sur le corps.
Resumo:
Muchos lingüistas ya han estudiado los ocasionalismos en la lengua alemana por su interés lingüístico, pero lo han hecho en general y solo muy pocos los han tratado observando su contexto. Por lo tanto, este trabajo analiza con qué frecuencia se hallanocasionalismos en una edición específica del periódico semanal DIE ZEIT, qué tipos de ocasionalismos hay y cómo el lector puede descifrarlos con o sin la ayuda del contexto. Para ello, he sintetizado los conocimientos básicos necesarios sobre laformación de las palabras en alemán, poniendo el énfasis en la formación de palabras nuevas, como son los ocasionalismos. De esta manera, he podido clasificar los ocasionalismos en los tres clases principales de la formación de palabras en alemán y, asimismo, analizarlos en su contexto. El resultado son 234 ocasionalismosencontrados, un 88 % de palabras compuestas, un 7 % de derivaciones y un 5 % de conversiones. Mediante estos ejemplos, he estudiado cómo el lector puede llegar a entenderlos sin tener previo conocimiento de ellos y prescindiendo del contexto; y laconclusión es que lo consigue a través de analogías con palabras conocidas y descomponiendo la nueva palabra en sus elementos constituyentes directos; sin embargo, el contexto sigue siendo imprescindible.
Resumo:
Après une étude des notions de justice, juridiction et cour constitutionnelle, la présente thèse aborde le contrôle des normes par les organes de la Confédération ; un accent est mis sur le recours auTribunal fédéral contre les actes normatifs cantonaux. La justice constitutionnelle par les organes cantonaux est ensuite étudiée de façon générale, en examinant successivement les exigences posées par le droit fédéral à cet égard et les différentes formes de contrôle abstrait dans les cantons dépourvus de cour constitutionnelle. Chaque cour constitutionnelle cantonale (Nidwald, Jura, Vaud, Grisons, Genève) fait ensuite l'objet d'une analyse approfondie, portant aussi bien sur les aspects historiques et procéduraux que sur la jurisprudence. Une dernière partie est consacrée à l'examen, théorique et empirique, des arguments entrant en ligne de compte dans le choix d'un canton de se doter d'une cour constitutionnelle ou non, suivie d'une analyse comparée des cours existantes. Enfin, les rapports entre ces dernières d'une part et leTribunal fédéral d'autre part sont examinés.
Resumo:
Introduction: Plusieurs études ont démontré qu'une injection unique de methylprednisolone était suivie d'une adsorption systémique significative (1) alors que cela ne semble pas être le cas si le produit est injecté par voie péridurale (2) Le but de ce travail est de comparer l'excrétion urinaire du produit, témoin de l'absortion sytémique après une injection unique de 80 mg de méthylprednisolone soit par voie intra-articulaire soit péridurale. Patients et Méthodes: 8 patients ont recu une injection de 80 mg methylprednisolone (4 par voie intra-articulaire 4 par voie péridurale).Ces dernières ont été pratiquées via le hiatus sacré sous contrôle fluoroscopique. Les injections intra articulaires ont été faites selon les repaires cliniques habituels dans les genoux. Les urines ont été prélevées 1 heure avant l'injection puis 4 x le premier jour, suivi de 3 receuils par semaine pendant 2 semaines. Les dosages urinaires comprennent la fraction libre et conjugée du stéroide. Ils ont été effectués dans le laboratoire d'analyse au centre universitaire romand de médecine légale. Résultats: Les résultats ont été exploités de facon à obtenir des cinétiques d'excrétion. Ils montrent de grandes différences individuelles surtout les patients ayant bénéficié d'une infiltration intra-articulaire. Après infiltrations intra-articulaires les concentrations maximales varient de 90 à 2500ng/ml pour la forme conjugée et de 60 à 4976 ng/ml pour la forme libre.La moyenne des taux individuels les plus élevés+ 3 SD est de 8269 ng/ml. Elles sont sigificativement inférieures après injection péridurale : pic maximaux de 40 à 483 ng/ml pour la forme conjugée et 40 à 80 ng/ml pour la forme libre. La moyenne des taux individuels les plus élevés est de 747 ng/ml. Dans les 2 cas le pic d'excrétion a lieu durant les 24 premières heures . L'éllimination est totale après 200 heures dans les deux situations. Conclusion: Cette étude confirme que l'absorption systémique de methylprednisolone est beaucoup plus faible après une infiltration péridurale que intra-articulaire, puisque son excrétion urinaire est moyenne 10 X inférieure. Le risque de complications systémiques secondaires à la corticothérapie est donc probablement négligeable après une infiltration péridurale.
Resumo:
La syncope est un symptôme clinique fréquent mais son origine demeure indéterminée jusque dans 60% des cas de patients admis dans un centre d'urgences. Le développement de consultations spécialisées de la syncope a considérablement modifié l'évaluation des patients avec une syncope inexpliquée en les orientant vers des stratégies d'investigations non-invasives, tels que le tilt-test, le massage du sinus carotidien et le test ^hyperventilation. Cependant, il existe peu de données dans 10 la littérature concernant dans la performance diagnostique réelle de ces tests fonctionnels.Notre travail de recherche porte sur l'analyse des données des 939 premiers patients adressés à la consultation ambulatoire de la syncope du CHUV pour l'investigation d'une syncope d'origine indéterminée. L'objectif de notre travail de thèse est 1) d'évaluer la performance diagnostique de l'algorithme de prise en charge standardisé et de ses différents tests pratiqués dans le cadre de notre 15 consultation et 2) de déterminer les caractéristiques cliniques communes des patients avec un diagnostic final de syncope d'origine rythmique ou vaso-vagale.Notre travail de thèse démontre qu'un algorithme de prise en charge standardisé basé sur des tests non-invasifs permet de déterminer 2/3 des causes de syncope initialement d'origine indéterminée. Par ailleurs, notre travail montre que des étiologies bénignes, telles que la syncope d'origine vaso- 20 vagale ou psychogène, représentent la moitié des causes syncopales alors que les arythmies cardiaques demeurent peu fréquentes. Finalement, notre travail démontre que l'absence de symptomatologie prodromique, en particulier chez les patients âgés avec une limitation fonctionnelle ou un allongement de la durée de l'onde Ρ à l'électrocardiogramme, suggère une syncope d'origine rythmique. Ce travail de thèse contribuera à optimaliser notre algorithme de prise 25 en charge standardisée de la syncope d'origine indéterminée et ouvre de nouvelles perspectives de recherche dans le développement de modèles basés sur des facteurs cliniques permettant de prédire les principales causes syncopales.
Resumo:
mesurer les positionnements politiques des candidats lors des élections, ce qui permet par la suite de déterminer les différences entre les partis politiques en termes de positionnements dans l'espace politique. Lors des élections au Conseil national de 2007, 85% d'environ 3000 candidats à l'élection au Conseil national ont répondu à 63 questions portant sur différents sujets politiques. Ces réponses ont été collectées et sont donc disponibles pour l'analyse. Ces données nous montrent que des différences considérables concernant de nombreuses questions existent toujours entre les candidats des différents partis. Les différences les plus faibles en termes de positionnements politiques ont été recensées entre le PS et les Verts, ainsi qu'entre les deux grands partis historiquement antagonistes, le PDC et le PRD. L'homogénéité interne des Verts et du PS est plus forte que celle du PRD et du PDC. Parmi les partis bourgeois, les candidats de l'UDC reflète une homogénéité interne plus forte que celle du PRD ou du PDC. Les candidats de l'UDC, du PS, du PRD et du PDC qui sont issus de la Suisse romande et du Tessin se positionnent plus volontiers à l'aile gauche de leur parti, la tendance vers un positionnement encore plus marqué à gauche ayant été constatée chez les candidats tessinois du PRD, du PDC et de l'UDC. A l'inverse, les candidats verts issus de la Suisse allemande ont en moyenne un positionnement politique plus marqué à gauche que leurs collègues romands et tessinois. Il en va autrement pour les positionnements politiques sur l'axe libéral-conservateur. Les candidats suisses allemands sont plus libéraux que leurs homologues romands et tessinois. Il ressort des réponses des candidats aux questions posées par smartvote que des différences de contenu en termes de positionnements politiques existent de manière suffisante, au moins entre les quatre grands partis siégeant au Conseil fédéral (PDC, PRD, PS, UDC), pour justifier un système comportant un nombre aussi élevé de partis. Savoir si ces différences en termes de positionnements politiques correspondent aux besoins des électeurs est une autre question.
Resumo:
Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
L'analyse de l'activité reste le principal garant d'une bonne évaluation de la situation de travail et de l'environnement psychosocial. Elle permet de donner du contenu, de la substance et ainsi d'expliquer les données récoltées par questionnaire. Lors d'études à petite échelle et dans un contexte d'activité spécifique, l'analyse de l'activité devrait toujours accompagner l'utilisation d'autres outils d'évaluation. En effet, on voit ici que les échelles de Karasek ne traduisent pas toujours la réalité des diverses situations de travail, et l'autonomie décisionnelle de Karasek n'est ici pas un bon révélateur des possibilités d'ajustement et de la marge de manoeuvre. Ces échelles ont été initialement conçues pour être utilisées lors d'études épidémiologiques et donc sur de grandes populations où la spécificité de certaines activités influencerait ainsi moins le résultat global. Leur utilisation de façon plus ou moins abusive sur d'autres types de populations doit être questionnée
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Résumé :Introduction : La mitoxantrone est un anthracénédione cytostatique aux ef¬fets immunosuppresseurs et -modulateurs qui est administré entre autre dans les évolutions graves de la sclérose en plaques (SEP). Peu d'études concernant l'efficacité et la tolérance de la mitoxantrone ont été publiées. Un travail de re¬cherche statistique s'imposait en raison du nombre de patients souffrant de SEP traités par ce médicament dans le service de neurologie de l'hôpital cantonal d'Aarau.Méthode : Au total, 66 patients souffrant de SEP ont été traités par la mi¬toxantrone dans la période 07/2000-06/2007. 48 d'entre eux avaient reçu préa¬lablement une autre substance modifiant l'évolution de la maladie (« prétrai¬tement » : interféron bêta-la/b, glatirameracétate, azathioprine). Dans cette étude rétrospective, nous avons comparé l'effet de la mitoxantrone par rapport au prétraitement mentionné ci-dessus. Les paramètres appliqués concernaient l'évolution de l'expanded disability status scale (EDSS) et le nombre annuel de poussées pendant la durée du traitement. Une influence du type de SEP, de l'âge au début du traitement par la mitoxantrone, du sexe, de la durée de la théra¬pie et de la maladie ainsi que de la dose cumulative de la mitoxantrone a été recherchée. Nous avons également discuté des éventuels effets indésirables surve¬nus. Nous n'avons pas différencié les substances du prétraitement, étant donné qu'elles avaient été appliquées dans des combinaisons multiples. L'évaluation sta¬tistique a été effectuée en respectant les indications du test de Mann-Whitney ainsi que du Wilcoxon signed-rank test.Résultats : En moyenne, l'EDSS s'est stabilisée (-0,05/année chez tous les 66 patients) tandis que la maladie avait progressé de 0,32/année sous le pré¬traitement (la différence est significative avec p=0,0004 au Wilcoxon signed- rank test bilatéral). Sous le prétraitement, les patients avaient subi en moyenne 1,72 poussées par année, sous la mitoxantrone 0,26 (différence significative avec p<0,0001). La thérapie a dû être arrêtée à cause d'effets indésirables chez quatre patients sous la mitoxantrone (deux avec une granulocytopénie, deux avec une diminution de la fraction d'éjection cardiaque).Discussion : La mitoxantrone s'est avéré une substance particulièrement ef¬ficace même dans les situations dans lesquelles le décours de la maladie n'a pas pu être influencé par d'autres médicaments. Ses effets indésirables doivent être pondérés par rapport à la progression de la maladie et aux effets indési¬rables des autres substances. Les schémas d'application varient beaucoup dans la littérature et doivent être mieux définis.Zusammenfassung :Einleitung: Mitoxantron ist ein zytostatisches Anthracenedion mit immunsup- pressiven und -modulatorischen Eigenschaften, das unter anderem bei schwe¬ren Verläufen der Multiplen Sklerose eingesetzt wird. Bisher befassten sich nur wenige randomisierte und plazebokontrollierte Studien mit Wirksamkeit und Tolerabilität des Medikamentes.Methoden: 66 MS-Patienten der neurologischen Klinik des Kantonsspitals Aar- au wurden zwischen Juli 2000 und Juni 2007 mit Mitoxantron behandelt. 48 davon erhielten zuvor eine MS-spezifische Behandlung mit Interferon ß-1 a oder b, Glatirameracetat oder Azathioprin. Anhand der Veränderung der Expanded Disability Status Scale (EDSS) und der jährlichen Schubrate und mit Hilfe von MRI-Aufnahmen zeichneten wir retrospektiv die Wirksamkeit der Behandlung nach und stellten sie in Beziehung zu einer eventuell erfolgten Vorbehandlung. Des weiteren wurde die Effektivität in Verhältnis zu den Faktoren Verlaufsform, Alter bei Behandlungsbeginn, Behandlungszeit sowie weiteren Parametern ge¬bracht. Wir verglichen die Wirkung von Mitoxantron bei den noch laufenden Behandlungen mit der bei den bereits abgeschlossenen und wir diskutierten die Veränderung von MRI-Aufnahmen des ZNS unter der Therapie mit Mitoxan¬tron. Nebenwirkungen wurden erwähnt.Resultate: Im Durchschnitt wurde der EDSS-Wert stabilisiert (-0, 05/Jahr bei allen 66 Patienten), während die Krankheit unter der verlaufsmodifizierenden Vorbehandlung um durchschnittlich 0,32/Jahr fortschritt (Unterschied signifi¬kant mit p=0,0004 im zweiseitigen Wilcoxon signed-rank test). Die Schubrate betrug 0,26 unter Mitoxantron gegenüber 1,72/Jahr unter Vorbehandlung (Un¬terschied signifikant mit p<0,0001). Bei vier Patienten musste die Therapie auf¬grund von Nebenwirkungen abgebrochen werden (zweimal Granulozytopenie, zweimal verminderte kardiale Auswurffraktion).Diskussion: Mitoxantron ist offensichtlich selbst dann eine äusserst effektive verlaufsmodifizierende Substanz, wenn die Krankheit durch andere Medikamen¬te nicht zu beeinflussen ist. Die Risiken des Medikamentes müssen gegen das Krankheitsfortschreiten und die Nachteile anderer verlaufsmodifizierender Sub¬stanzen abgewogen werden. Die Anwendungsalgorithmen für Mitoxantron vari¬ieren in der Literatur sehr und müssen besser definiert werden.