395 resultados para Optimale Versuchsplanung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: Le scanner peut aider au diagnostic et la caractérisation des valvulopathies et des lésions associées (aorte, coronaires). Le scanner est un examen incontournable pour l'évaluation pré-thérapeutique des procédures TAVI (transfémorale ou transapicale). Le scanner peut être utile pour caractériser les insuffisances aortiques. Grâce aux développements récents dans les thérapies peu invasives et au progrès du CT, le rôle du radiologue est redevenu central dans la prise en charge de certaines valvulopathies aortiques. Résumé: Les valvulopathies aortiques sont des maladies fréquentes. Leur exploration repose largement sur l'échocardiographie et sur l'IRM. Les progrès technologiques en scanner cardiaque ont permis à ce dernier d'explorer la valve aortique et ses pathologies. Ce cours est principalement consacré aux méthodes d'acquisition et de traitement des images dédiées à l'exploration de la valve aortique (plan de coupes, planimétrie, scores...). Une attention particulière est réservée aux considérations anatomiques spécifiques à celle-ci (variantes anatomiques). Les indications du scanner cardiaque dans les valvulopathies seront résumées (sténoses, insuffisances, pathologie tumorale et pathologies inflammatoires). Dans la sténose de la valve, outre ses performances diagnostiques, le scanner plus ou moins couplé à l'exploration des vaisseaux périphériques, est devenu une méthode intournable dans le bilan pré-thérapeutique. La connaissance des paramètres à évaluer (taille de l'anneau, position des coronaires, orientation du plan de la valve...) et la standardisation des mesures sont un élément clé pour une prise en charge optimale. Dans les insuffisances aortiques, les méthodes de quantification (planimétrie) peuvent être utilisées pour les caractériser avec des performances comparables à celles obtenues par d'autres techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

UNIVERSITE DE LAUSANNE - FACULTE DE BIOLOGIE ET DE MEDECINE Médecine Ophtalmologie Etude clinique et angiographique lors de la Syphilis Oculaire THESE préparée sous la direction du Docteur Yan Guex-Crosier et présentée à la Faculté de biologie et de médecine de l'Université de Lausanne pour l'obtention du grade de DOCTEUR EN MEDECINE par Konstantinos BALASKAS Médecin diplômé de la Grèce Originaire d'Athènes (Grèce) ι Lausanne 2012  Une recrudescence des cas de syphilis a été observée ces dernières années. Son diagnostic clinique reste particulièrement difficile en l'absence de signe pathognomonique. Sur le plan oculaire elle présente un vaste spectre de manifestations diverses lui ayant valu le surnom de « la grande imitatrice ». Sa rareté et son hétérogénéité ont empêché l'identification et la vérification statistique des facteurs liés à un pronostic défavorable. Le but de cette étude a été d'explorer les paramètres cliniques et para-cliniques déterminant la sévérité et influençant l'évolution de la maladie. Ce travail comprend deux volets, la première partie intitulée : «Analysis of significant factors influencing visual acuity in ocular syphilis» publiée dans le British Journal of Ophthalmology a démontré qu'une mauvaise acuité visuelle initiale est associée de façon statistiquement significative à la sévérité de l'amputation du champ visuel, à la présence d'un oedème maculaire ou d'une neuropathie optique. Une amélioration de l'acuité visuelle grâce au traitement antibiotique est associée à la présence d'une vasculite (visible à l'angiographie fluorescéinique), d'une neurosyphilis ou d'une uvéite antérieure. Une récidive inflammatoire est fortement associée à une durée prolongée des symptômes avant l'introduction du traitement et à la présence de douleur comme signe d'appel. L'utilité clinique principale de ces résultats statistiques permet de conclure que les formes inflammatoires sévères associées à la triade (vasculite, neurosyphilis et uvéite antérieure) constituent un phénomène réversible pour autant qu'un traitement précoce et adéquat ait été introduit. Le deuxième volet de l'étude analyse les manifestations angiographiques (à la fluorescéine (AF) et au vert d'indocyanine (AICG)) de la syphilis oculaire et a été publié dans le journal du Graefes Archives of Clinical and Experimental Ophthalmology sous le titre suivant : "Fluorescein and indocyanine-green angiography in ocular syphilis: an exploratory study". Des associations faibles ont été démontrées entre la présence d'une vasculite lors de AF et d'une uvéite antérieure, d'une hyalite et d'un âge plus jeune. Une association forte est identifiée entre la présence des «dark dots» sur l'AICG et d'une uvéite antérieure ainsi qu'entre la présence des «hot spots» sur l'AICG et d'une durée prolongée des symptômes. Les conclusions d'importance clinique significative lors de la syphilis oculaire sont que les « dark dots » ou hypofluorescences en AICG évoquent la présence d'une atteinte inflammatoire oculaire sévère et que les « hot spots » ou hyperfluorescences en AICG sont significatifs d'une atteinte chronique. Cette étude contribue à modifier les attitudes cliniques lors de la syphilis oculaire surtout en ce qui concerne l'urgence à traiter afin d'assurer une récupération optimale. Elle aide aussi à redéfinir le rôle de l'angiographie dans la syphilis oculaire pour déterminer la sévérité, la durée de la maladie ainsi que le pronostic visuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Définies par une prévalence inférieure à 1⁄2000, lesmaladies rares toucheraient 5 à 6 % de la population,soit environ 500 000 personnes en Suisse. Une vasteenquête européenne a révélé pour la première foisavec précision les difficultés et les besoins despatients atteints, et montré que leur prise en chargen'est pas optimale. Des plans nationaux pour lesmaladies rares ont été développés ou vont l'être aucours de prochaines années dans la plupart des payseuropéens. La Suisse a un retard de plusieurs annéesdans ce domaine, mais des initiatives récentespourraient permettre de le combler si elles sontlargement soutenues. Les médicaments orphelins,destinés à un petit nombre de patients mais souventextrêmement coûteux, sont une source potentiellede tensions entre intérêt individuel et intérêt collectif.Entité éthique, sociale, économique, mais aussiscientifique et clinique, les maladies rares et leurstraitements confrontent aux limites des connaissanceset des ressources. Elles constituent un enjeu de santépublique et un défi que la Suisse est invitée à relever.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

- Comment prescrire à une femme enceinte? L'attitude optimale réalise un compromis entre d'une part l'indication au traitement, et d'autre part l'importance du risque que celui-ci fait courir au foetus et à la mère. Le respect de quelques principes simples peut aider dans cette démarche: - La relative carence en connaissances dans ce domaine impose avant tout une attitude basée sur le principe de précaution. - La période (1er, 2e ou 3e trimestre) pendant laquelle le foetus sera exposé au traitement envisagé est un élément prépondérant dans la réflexion. - Le traitement de choix est celui qui, parmi les alternatives efficaces, présente le meilleur profil de sécurité pendant la grossesse selon les observations humaines disponibles. - Le rapport bénéfice/risque pour la patiente et le foetus peut s'inverser pendant la grossesse. - Toute exposition médicamenteuse problématique pendant la grossesse doit faire l'objet d'une annonce à l'un des centres suisse de pharmacovigilance. Ces données de tératovigilance sont indispensables pour alimenter les connaissances dans ce domaine. - Afin d'illustrer ces principes généraux, un exemple typique de prescription chez la femme enceinte a été choisi, mettant l'accent sur un problème de tératovigilance récemment identifié: les risques liés à certains antidépresseurs durant la grossesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY IL-1R and TLRs are key players in innate immunity and inflammation. Tollip was identified as a component of IL-1RI, TLR2 and TLR4 signaling complexes that activate NF-κB and MAP kinase pathways. Tollip was previously shown as a negative regulator of NF-κB and MAP Kinase activation. We have characterized the role of Tollip in IL-R/TLRs induced signaling by the analysis of the Tollip deficient mice. We showed that NF-κB and MAPK (p38, JNK, or ERK1/2) signaling appeared normal in Tollip deficient cells following stimulation with IL-1β, lipopolysaccharide (LPS), and other TLR ligands. Also IL-1β and TLRs ligands induced activation of immune cells was indistinguishable from wild-type cells. Strikingly, in Tollip deficient mice the production of the inflammatory cytokines, IL-6 or TNF-α was significantly reduced relative to control mice after treatment with physiological doses of IL-1β or LPS, whereas no difference was observed at high doses of stimulation with LPS or in LPS induced septic shock. Therefore, Tollip could be critical for regulation of optimal responses to IL-1β and LPS, in addition to its role as negative regulator of the signaling. We also studied the role of Tollip as an endocytic adaptor for IL-1R endocytosis. We could show that Il-1R is ubiquitinated after IL-1β stimulation, and that Tollip's CUE domain binds IL-1RI in an ubiquitin-dependent manner. We followed IL-1R internalization and Tollip localization by confocal microscopy. Consistent with a role for Tollip in sorting of ubiquitinated IL-1RI, a significant amount of Tollip was also localized at the late endosomal compartment. We could show that Tollip is required for efficient lysosomal targeting of ubiquitinated IL-1R1, In the absence of Tollip or in Tollip deficient cells reconstituted with a Tollip mutant (defective in ubiquitin binding) IL-1RI accumulates in enlarged late endosomes. In addition, Tollip was shown to interact with, another endocytic adapter, Toml, and both interact with IL-1RI. In conclusion, we showed that Tollip is required for IL-1β and LPS signaling for cytokine production. In addition we showed and that Tollip has a role as an endocytic adapter, necessary for efficient trafficking and lysosomal degradation of IL-1RI. Resumé Le récepteur à l'interleukine-1 (IL-1R) et les récepteurs "Toll-like" (TLRs) sont des acteurs cruciaux de la réponse immunitaire innée et de l'inflammation. La proteine Tollip a été identifiée comme étant un élément des complexes de signalisation, induits par les récepteurs IL-1RI, TLR-2 et TLR-4, qui mènent à l'activation de la voie des MAP kinases et de NF-κB. Dans de précédentes études, il a été montré que Tollip pouvait inhiber ces deux voies de signalisation. Nous avons voulu caractériser plus précisément le rôle de Tollip dans l'activation des voies de signalisation mitées par IL-1R/TLRs en utilisant une lignée murine déficiente pour la protéine Tollip. Ainsi, en absence de Tollip, les cascades d'activation de NF-κB et MAPK (p38, JNK, or ERK1/2) ne semblent pas affectées après stimulation avec IL-1β, lipopolysaccharide (LPS) ou d' autres ligands des TLR. La réponse des cellules du système immunitaire induite par la stimulation avec IL-1β et les ligands des TLR est également comparable entre les souris sauvages et les souris deficientes pour Tollip. Par contre, dans cette lignée murine, la production de cytokines proinflammatoires IL-6 et TNFα induite par la stimulation à dose physiologique de IL-1β or LPS, est réduite. Cependant, lors de stimulation à plus hautes doses de LPS ou pendant un choc septique induit par de LPS, cette réduction n'est pas observée. Ces résultats montrent que Tollip pourrait avoir un rôle déterminant dans l'activation optimale en réponse à l' IL-1β et au LPS qui s'ajoute à sa fonction inhibitrice des mêmes voies de signalisation. Nous avons aussi étudié le rôle de Tollip comme molécule adaptatatrice du mécanisme endocytique d'internalisation de l' IL-1RI. Ainsi, l' IL-1R est ubiquitiné après stimulation par l' IL-1β , permettant à Tollip de se lier au récepteur. Cette interaction est réalisée entre le domaine CUE de Tollip et l'IL-1R via l'ubiquitine. L'internalisation et la localisation intracellulaire de l'IL-1RI et de Tollip ont été observés par microscopie confocale. En accord avec le rôle de Tollip dans le triage et la recirculation des IL-1R ubiquitiné, une quantité importante de Tollip été détectée dans l' endosome tardif. Nous avons pu démontrer que Tollip était nécessaire pour diriger efficacement ubiquitiné vers les lysosomes. Dans des cellules déficientes pour Tollip, ou reconstituées avec un mutant de Tollip (MF/AA) incapable de lier l'ubiquitine, IL-1RI s'accumule dans des vesicules anormales de l'endosome tardif. Dans ce travail, nous avons pu confirmer et préciser la fonction de la protéine Tollip dans l' activation de la production de cytokines induites par l' IL-1p and le LPS lors de l'inflammation et découvrir son rôle d'adaptateur dans l' internalisation et l'endocytose de l' IL-1RI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Ce travail comprend deux parties : La première partie a pour but de présenter une revue des techniques de gastrostomie chez l'enfant. La gastrostomie est, par définition, un tractus fistuleux entre l'estomac et la paroi abdominale. Le but de la gastrostomie est de permettre la décompression gastrique, la nutrition entérale et l'apport médicamenteux. Les indications et contre-indications à la confection et utilisation de la gastrostomie sont détaillées dans ce travail. Historiquement, les premières gastrostomies étaient d'origine accidentelle ou infectieuse (fistule gastro-cutanée), incompatibles avec la vie. Sedillot, en 1845 décrivit la première gastrostomie chirurgicale sans cathéter, qui avait comme désavantage la présence de fuites. Depuis, les techniques se sont multipliées en évoluant vers la continence et l'utilisation de cathéters. En 1979 Gauderer décrivit pour la première fois une technique percutanée, réalisée sur un enfant âgé de 5 mois. Cette technique est appelée « Percutaneous Endoscopic Gastrostomy » (PEG). Elle a ensuite été élargie à la population adulte. Actuellement, il existe une grande multiplicité de techniques par abord « laparotomique », laparoscopique ou percutanée (endoscopique ou radiologique). Ces techniques peuvent être combinées. Toutes ces techniques nécessitent la présence intermittente ou continue d'un dispositif, qui permet le maintient de la gastrostomie ouverte et évite les fuites gastriques. Ces dispositifs sont multiples; initialement il s'agissait de cathéters rigides (bois, métal, caoutchouc). Ensuite ils ont été fabriqués en silicone, ce qui les rend plus souples et mieux tolérés par le patient. Pour éviter leur dislocation, ils possèdent un système d'amarrage intra-gastrique tel que : un champignon (Bard®), un ballonnet (Foley®, Mic-Key®), ou une forme spiralée du cathéter (« pig-tail ») et possèdent un système d'amarrage extra-gastrique (« cross-bar »). En 1982, Gauderer créa le premier dispositif à fleur de peau : le bouton de gastrostomie (BG). Actuellement, il en existe deux types : à champignon (Bard®) et à ballonnet (Mic-Key®). Il existe plusieurs types de complications liées à la technique opératoire, à la prise en charge et au matériel utilisé. Une comparaison des différentes techniques, matériaux utilisés et coûts engendrés est détaillée dans ce travail. La deuxième partie de ce travail est dédiée aux BG et plus spécifiquement au BG à ballonnet (Mic-Key®). Nous présentons les différents boutons et les techniques spécifiques. Le BG est inséré soit dans une gastrostomie préformée, soit directement lors de la confection d'une gastrostomie par laparotomie, laparoscopie ou de façon percutanée. Les complications liées au BG sont rapportées. D'autres utilisations digestives ou urologiques sont décrites. Nous présentons ensuite notre expérience avec 513 BG à ballonnet (Mic-Key®) dans une revue de 73 enfants. La pose du BG est effectuée dans une gastrostomie préformée sans recours à une anesthésie générale. La technique choisie pour la confection de la gastrostomie dépend de la pathologie de base, de l'état général du patient, de la nécessité d'une opération concomitante et du risque anesthésique. Nous apportons des précisions sur le BG telles que la dimension en fonction de l'âge, la durée de vie, et les causes qui ont amené au changement du BG. Nos résultats sont comparés à ceux de la littérature. Sur la base de notre expérience et après avoir passé en revue la littérature spécialisée, nous proposons des recommandations sur le choix de la technique et le choix du matériel. Ce travail se termine avec une réflexion sur le devenir de la gastrostomie. Si le futur consiste à améliorer et innover les techniques et les matériaux, des protocoles destinés à la standardisation des techniques, à la sélection des patients et à l'enseignement des soins devraient s'en suivre. La prise en charge de l'enfant ne se limite pas à la sélection appropriée de la technique et des matériaux, mais il s'agit avant tout d'une approche multidisciplinaire. La collaboration entre le personnel soignant, la famille et l'enfant est essentielle pour que la prise en charge soit optimale et sans risques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Über eine längere Zeitdauer betrachtet, weisen staatliche Schulden tendenziell tiefere Zinssätze respektive Renditen auf als andere auf dem Markt gehandelte papiere, was teilweise durch das geringere Risiko erklärt werden kann (Mehra & Prescott, 2003: S.892). Indem die Abhängigkeit der Schuldzinssätze von den Schuldenquoten der Schweizer Kantone modelliert und in Beziehung zu einer adäquaten Marktrendite gebracht wird, zeigt diese Arbeit, welches Einnahmepotential sich aus diesem Zins-Spread für die Schweizer Kantone ergibt. Zur Schätzung der Zinskurve wird vom Marktgleichgewicht ausgegangen, bei welchem die investoren mit einem Default Premium für einen möglichen Ausfall des Kantons als Schuldner, im Vergleich zu einer risikolosen Anlage, abgegolten werden müssen (Bayoumi, Goldstein und Woglom, 1995: S. 1048-1051). Dazu werden die für den Schweizer Kontext spezifischen Determinanten für die Ausfallswahrscheinlichkeit identifiziert (Daldoss und Foraita, 2003: S. 87). Empirisch überprüft wird dieses Modell anhand eines quantitativen Ansatzes, wobei in erster Linie die Generalisierte Momenten-Methode (GMM) angewandt wird. Als Datenbasis dient hauptsächlich die Finanzstatistik der Eidgenössischen Finanzverwaltung (EFV), wobei alle 26 Schweizer Kantone im Zeitraum von 1981 bis 2011 betrachtet werden. Als Marktrendite wird die durchschnittliche Rendite der Schweizer Pensionskassen verwendet. Mit den verwendeten Daten und Modellen kann die Form der Zinskurve jedoch nicht eindeutig bestimmt werden, was grösstenteils auf die Endogenitätsproblematik zurückzuführen ist. Diese kann aufgrund ungenügender und mangelhafter Instrumente ohne zusätzliche Daten nicht überwunden werden. Folglich kann auch keine optimale Schuldenquote bestimmt werden. Die quantitativen Resultate deuten dennoch auf ein gewisses Einnahmepotential hin. Wie das Fallbeispiel Kanton Aargau zeigt, kann dieses punktuell auch gebraucht werden und findet in der Praxis Anwendung (Anonymer Interviewpartner, 2013).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les bactéries du genre Pseudomonas ont la capacité étonnante de s'adapter à différents habitats et d'y survivre, ce qui leur a permis de conquérir un large éventail de niches écologiques et d'interagir avec différents organismes hôte. Les espèces du groupe Pseudomonas fluorescens peuvent être facilement isolées de la rhizosphère et sont communément connues comme des Pseudomonas bénéfiques pour les plantes. Elles sont capables d'induire la résistance systémique des plantes, d'induire leur croissance et de contrer des phytopathogènes du sol. Un sous-groupe de ces Pseudomonas a de plus développé la capacité d'infecter et de tuer certaines espèces d'insectes. Approfondir les connaissances sur l'interaction de ces bactéries avec les insectes pourraient conduire au développement de nouveaux biopesticides pour la protection des cultures. Le but de cette thèse est donc de mieux comprendre la base moléculaire, l'évolution et la régulation de la pathogénicité des Pseudomonas plante-bénéfiques envers les insectes. Plus spécifiquement, ce travail a été orienté sur l'étude de la production de la toxine insecticide appelée Fit et sur l'indentification d'autres facteurs de virulence participant à la toxicité de la bactérie envers les insectes. Dans la première partie de ce travail, la régulation de la production de la toxine Fit a été évaluée par microscopie à épifluorescence en utilisant des souches rapportrices de Pseudomonas protegens CHA0 qui expriment la toxine insecticide fusionnée à une protéine fluorescente rouge, au site natif du gène de la toxine. Celle-ci a été détectée uniquement dans l'hémolymphe des insectes et pas sur les racines des plantes, ni dans les milieux de laboratoire standards, indiquant une production dépendante de l'hôte. L'activation de la production de la toxine est contrôlée par trois protéines régulatrices dont l'histidine kinase FitF, essentielle pour un contrôle précis de l'expression et possédant un domaine "senseur" similaire à celui de la kinase DctB qui régule l'absorption de carbone chez les Protéobactéries. Il est donc probable que, durant l'évolution de FitF, un réarrangement de ce domaine "senseur" largement répandu ait contribué à une production hôte-spécifique de la toxine. Les résultats de cette étude suggèrent aussi que l'expression de la toxine Fit est plutôt réprimée en présence de composés dérivés des plantes qu'induite par la perception d'un signal d'insecte spécifique. Dans la deuxième partie de ce travail, des souches mutantes ciblant des facteurs de virulence importants identifiés dans des pathogènes connus ont été générées, dans le but d'identifier ceux avec une virulence envers les insectes atténuée. Les résultats ont suggéré que l'antigène O du lipopolysaccharide (LPS) et le système régulateur à deux composantes PhoP/PhoQ contribuent significativement à la virulence de P. protegens CHA0. La base génétique de la biosynthèse de l'antigène O dans les Pseudomonas plante-bénéfiques et avec une activité insecticide a été élucidée et a révélé des différences considérables entre les lignées suite à des pertes de gènes ou des acquisitions de gènes par transfert horizontal durant l'évolution de certaines souches. Les chaînes latérales du LPS ont été montrées comme vitales pour une infection des insectes réussie par la souche CHA0, après ingestion ou injection. Les Pseudomonas plante-bénéfiques, avec une activité insecticide sont naturellement résistants à la polymyxine B, un peptide antimicrobien modèle. La protection contre ce composé antimicrobien particulier dépend de la présence de l'antigène O et de la modification du lipide A, une partie du LPS, avec du 4-aminoarabinose. Comme les peptides antimicrobiens cationiques jouent un rôle important dans le système immunitaire des insectes, l'antigène O pourrait être important chez les Pseudomonas insecticides pour surmonter les mécanismes de défense de l'hôte. Le système PhoP/PhoQ, connu pour contrôler les modifications du lipide A chez plusieurs bactéries pathogènes, a été identifié chez Pseudomonas chlororaphis PCL1391 et P. protegens CHA0. Pour l'instant, il n'y a pas d'évidence que des modifications du lipide A contribuent à la pathogénicité de cette bactérie envers les insectes. Cependant, le senseur-kinase PhoQ est requis pour une virulence optimale de la souche CHA0, ce qui suggère qu'il régule aussi l'expression des facteurs de virulence de cette bactérie. Les découvertes de cette thèse démontrent que certains Pseudomonas associés aux plantes sont de véritables pathogènes d'insectes et donnent quelques indices sur l'évolution de ces microbes pour survivre dans l'insecte-hôte et éventuellement le tuer. Les résultats suggèrent également qu'une recherche plus approfondie est nécessaire pour comprendre comment ces bactéries sont capables de contourner ou surmonter la réponse immunitaire de l'hôte et de briser les barrières physiques pour envahir l'insecte lors d'une infection orale. Pour cela, les futures études ne devraient pas uniquement se concentrer sur le côté bactérien de l'interaction hôte-microbe, mais aussi étudier l'infection du point de vue de l'hôte. Les connaissances gagnées sur la pathogénicité envers les insectes des Pseudomonas plante-bénéfiques donnent un espoir pour une future application en agriculture, pour protéger les plantes, non seulement contre les maladies, mais aussi contre les insectes ravageurs. -- Pseudomonas bacteria have the astonishing ability to survive within and adapt to different habitats, which has allowed them to conquer a wide range of ecological niches and to interact with different host organisms. Species of the Pseudomonas fluorescens group can readily be isolated from plant roots and are commonly known as plant-beneficial pseudomonads. They are capable of promoting plant growth, inducing systemic resistance in the plant host and antagonizing soil-borne phytopathogens. A defined subgroup of these pseudomonads evolved in addition the ability to infect and kill certain insect species. Profound knowledge about the interaction of these particular bacteria with insects could lead to the development of novel biopesticides for crop protection. This thesis thus aimed at a better understanding of the molecular basis, evolution and regulation of insect pathogenicity in plant-beneficial pseudomonads. More specifically, it was outlined to investigate the production of an insecticidal toxin termed Fit and to identify additional factors contributing to the entomopathogenicity of the bacteria. In the first part of this work, the regulation of Fit toxin production was probed by epifluorescence microscopy using reporter strains of Pseudomonas protegens CHAO that express a fusion between the insecticidal toxin and a red fluorescent protein in place of the native toxin gene. The bacterium was found to express its insecticidal toxin only in insect hemolymph but not on plant roots or in common laboratory media. The host-dependent activation of Fit toxin production is controlled by three local regulatory proteins. The histidine kinase of this regulatory system, FitF, is essential for the tight control of toxin expression and shares a sensing domain with DctB, a sensor kinase regulating carbon uptake in Proteobacteria. It is therefore likely that shuffling of a ubiquitous sensor domain during the evolution of FitF contributed to host- specific production of the Fit toxin. Findings of this study additionally suggest that host-specific expression of the Fit toxin is mainly achieved by repression in the presence of plant-derived compounds rather than by induction upon perceiving an insect-specific signal molecule. In the second part of this thesis, mutant strains were generated that lack factors previously shown to be important for virulence in prominent pathogens. A screening for attenuation in insect virulence suggested that lipopolysaccharide (LPS) O-antigen and the PhoP-PhoQ two-component regulatory system significantly contribute to virulence of P. protegens CHAO. The genetic basis of O-antigen biosynthesis in plant-beneficial pseudomonads displaying insect pathogenicity was elucidated and revealed extensive differences between lineages due to reduction and horizontal acquisition of gene clusters during the evolution of several strains. Specific 0 side chains of LPS were found to be vital for strain CHAO to successfully infect insects by ingestion or upon injection. Insecticidal pseudomonads with plant-beneficial properties were observed to be naturally resistant to polymyxin B, a model antimicrobial peptide. Protection against this particular antimicrobial compound was dependent on the presence of O-antigen and modification of the lipid A portion of LPS with 4-aminoarabinose. Since cationic antimicrobial peptides play a major role in the immune system of insects, O-antigenic polysaccharides could be important for insecticidal pseudomonads to overcome host defense mechanisms. The PhoP-PhoQ system, which is well-known to control lipid A modifications in several pathogenic bacteria, was identified in Pseudomonas chlororaphis PCL1391 and P. protegens CHAO. No evidence was found so far that lipid A modifications contribute to insect pathogenicity in this bacterium. However, the sensor kinase PhoQ was required for full virulence of strain CHAO suggesting that it additionally regulates the expression of virulence factors in this bacterium. The findings of this thesis demonstrate that certain plant-associated pseudomonads are true insect pathogens and give some insights into how these microbes evolved to survive within and eventually kill the insect host. Results however also point out that more in-depth research is needed to know how exactly these fascinating bacteria manage to bypass or overcome host immune responses and to breach physical barriers to invade insects upon oral infection. To achieve this, future studies should not only focus on the bacterial side of the microbe-host interactions but also investigate the infection from a host-oriented view. The knowledge gained about the entomopathogenicity of plant-beneficial pseudomonads gives hope for their future application in agriculture to protect plants not only against plant diseases but also against insect pests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durant des années, les femmes ont été sous-représentées dans les études cliniques. Or, de nombreuses molécules n'ont pas le même effet chez les hommes et les femmes, en raison de différences pharmacodynamiques et pharmacocinétiques. Il en découle un manque d'informations sur les effets thérapeutiques ou indésirables des substances mais aussi, plus généralement, une moins bonne connaissance des pathologies chez les femmes et une prise en charge plus souvent sous-optimale.La sous-représentation est due à divers facteurs, allant de la perception des femmes au sein de la société à des enjeux éthiques vis-à-vis de la grossesse. L'importance d'inclure suffisamment de femmes comme sujets d'études nécessite ainsi une prise de conscience médicale et également sociale ; elle devra s'accompagner de changements entre autres politiques ou législatifs. For years, women were underrepresented in clinical studies. But the effect of many drugs differ among women and men, due to pharmacokinetic and pharmacodynamic differences. As a result, there is a lack of information on therapeutic or adverse effets of drugs and, more generally, a lack of knowledge on diseases, leading more frequently to sub-optimal medical care in women. This underrepresentation is due to various factors, including the social role of women or ethical issues about pregnancy. The need for adequate representation of women in clinical studies is a social as well as medical concern, that implies political and legal changes.