441 resultados para Antibiotiques--Brevets d’invention--Modèles économétriques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En parallèle à l'avènement des modèles policiers guidés par le renseignement, les méthodes d'analyse criminelle et de renseignement forensique ont connu des développements importants ces dernières années. Des applications ont été proposées dans divers domaines des sciences forensiques afin d'exploiter et de gérer différents types de traces matérielles de façon systématique et plus performante. A cet égard, le domaine des faux documents d'identité n'a été l'objet que de peu d'attention bien qu'il s'agisse d'une criminalité grave dans laquelle le crime organisé est impliqué.La présente étude cherche à combler cette lacune en proposant une méthode de profilage des fausses pièces d'identité simple et généralisable qui vise à découvrir des liens existants sur la base des caractéristiques matérielles analysables visuellement. Ces caractéristiques sont considérées comme constituant la marque de fabrique particulière du faussaire et elle peuvent ainsi être exploitées pour inférer des liens entre fausses pièces d'identité provenant d'une même source.Un collectif de plus de 200 fausses pièces d'identité composé de trois types de faux documents a été récolté auprès des polices de neuf cantons suisses et a été intégré dans une banque de données ad hoc. Les liens détectés de façon systématique et automatique par cette banque de données ont été exploités et analysés afin de produire des renseignements d'ordre stratégique et opérationnel utiles à la lutte contre la fraude documentaire.Les démarches de profilage et de renseignement mises en place pour les trois types de fausses pièces d'identité étudiées se sont révélées efficaces, un fort pourcentage des documents s'avérant liés (de 30 % à 50 %). La fraude documentaire apparaît comme une criminalité structurée et interrégionale, pour laquelle les liens établis entre fausses pièces d'identité peuvent servir d'aide à l'enquête et de soutien aux décisions stratégiques. Les résultats suggèrent le développement d'approches préventives et répressives pour lutter contre la fraude documentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le monde social, la figure du chômeur créateur d'entreprise se voit réduite à une approche essentiellement économique qui se polarise entre d'un côté, une valorisation de la création d'entreprises individuelles présentée par les milieux économiques comme un outil efficace de relance de la croissance et de résolution de la question du chômage , et de l'autre, une dénonciation des risques financiers et des dangers sociaux encourus par les individus qui se lancent dans une telle démarche. Mais au final, que sait-on réellement de ces nouveaux indépendants, de leur situation, du sens qu'ils donnent à leur activité, bref de ce qu'ils peuvent vivre ? Leur émergence concorde-t-elle avec un nouveau choix de vie, un désir de conciliation entre projet de vie et projet professionnel, ou sommes-nous face à un nouveau visage de la précarité en lien avec le contexte de la crise de l'emploi ? Répondent-ils au slogan largement véhiculé par le discours économique et politique selon lequel « il faut devenir l'entrepreneur de sa propre vie » , expression d'un individualisme exacerbé et d'une volonté non dissimulée de responsabilisation des agents sociaux ? Enfin, ce nouveau type d'autoemploi représente-t-il une étape de transition vers la réinsertion dans la société salariale, ou l'émergence d'une évolution significative des comportements de travail et des significations qui lui sont attribuées? C'est à toutes ces questions que notre recherche tente de répondre. La figure du chômeur créateur émerge dans un environnement dominé par une logique qui ne cesse de promouvoir la figure de l'homo oeconomicus comme modèle à suivre . Il faut être libre, autonome, responsable, calculateur et entreprenant. Si en apparence, ces créateurs d'entreprise peuvent être assimilés à la figure de l'entrepreneur schumpeterien, sur les critères de la réponse qu'ils apportent à l'impératif d'individualisation et de responsabilisation, ils opèrent en réalité une subtile réappropriation de cette exigence en l'adaptant aux critères de l'épanouissement personnel. Unanimement satisfaits tant sur le plan des « attributs intrinsèques » qu' « extrinsèques » du travail, la majorité des créateurs rencontrés ne ressentent pas leur situation d'emploi comme précaire. Ils refusent par ailleurs avec force d'envisager un retour au salariat, même lorsque la santé de leur entreprise menace leur survie économique et leur emploi. Cette position à l'égard de la condition salariale trouve sa justification dans une primauté accordée aux valeurs épanouissantes de l'activité exercée, au détriment d'une quête de stabilité financière et professionnelle. Les dimensions de la liberté, de l'autonomie et de la maîtrise des conditions de travail sont des composantes essentielles à la compréhension du désir de se maintenir dans l'activité indépendante. Dans la construction de ce modèle de travail et dans la relation entretenue à la nouvelle modalité d'emploi, ce n'est pas tant le passage par le chômage, mais bien plus l'expérience salariale antérieure, qui entre en jeu de manière significative. Les bouleversements dans la hiérarchie des valeurs de ces travailleurs sont ainsi peut-être le signe d'une évolution des comportements face à la condition salariale. L'attachement presque inconditionnel des répondants à leur nouveau statut, combiné à un refus catégorique d'envisager un retour au salariat, peut faire l'objet d'une interprétation en termes de détachement par rapport à la norme fordiste, laquelle perdure encore comme principale référence normative, au sein d'une majorité de travailleurs, malgré une application de plus en plus compromise. Par conséquent, l'attitude des chômeurs créateurs témoignerait d'une transition initiée entre un modèle d'emploi devenu obsolète et la construction d'une pluralité de modèles davantage élaborés sur la base de critères individuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

2 Abstract2.1 En françaisLe séquençage du génome humain est un pré-requis fondamental à la compréhension de la biologie de l'être humain. Ce projet achevé, les scientifiques ont dû faire face à une tâche aussi importante, comprendre cette suite de 3 milliards de lettres qui compose notre génome. Le consortium ENCODE (ENCyclopedia Of Dna Elements) fût formé comme une suite logique au projet du génome humain. Son rôle est d'identifier tous les éléments fonctionnels de notre génome incluant les régions transcrites, les sites d'attachement des facteurs de transcription, les sites hypersensibles à la DNAse I ainsi que les marqueurs de modification des histones. Dans le cadre de ma thèse doctorale, j'ai participé à 2 sous-projets d'ENCODE. En premier lieu, j'ai eu la tâche de développer et d'optimiser une technique de validation expérimentale à haut rendement de modèles de gènes qui m'a permis d'estimer la qualité de la plus récente annotation manuelle. Ce nouveau processus de validation est bien plus efficace que la technique RNAseq qui est actuellement en train de devenir la norme. Cette technique basée sur la RT-PCR, m'a notamment permis de découvrir de nouveaux exons dans 10% des régions interrogées. En second lieu j'ai participé à une étude ayant pour but d'identifier les extrémités de tous les gènes des chromosomes humains 21 et 22. Cette étude à permis l'identification à large échelle de transcrits chimères comportant des séquences provenant de deux gènes distincts pouvant être à une grande distance l'un de autre.2.2 In EnglishThe completion of the human genome sequence js the prerequisite to fully understand the biology of human beings. This project achieved, scientists had to face another challenging task, understanding the meaning of the 3 billion letters composing this genome. As a logical continuation of the human genome project, the ENCODE (ENCyclopedia Of DNA Elements) consortium was formed with the aim of annotating all its functional elements. These elements include transcribed regions, transcription binding sites, DNAse I hypersensitive sites and histone modification marks. In the frame of my PhD thesis, I was involved in two sub-projects of ENCODE. Firstly I developed and optimized an high throughput method to validate gene models, which allowed me to assess the quality of the most recent manually-curated annotation. This novel experimental validation pipeline is extremely effective, far more so than transcriptome profiling through RNA sequencing, which is becoming the norm. This RT-PCR-seq targeted-approach is likewise particularly efficient in identifying novel exons, as we discovered about 10% of loci with unannotated exons. Secondly, I participated to a study aiming to identify the gene boundaries of all genes in the human chromosome 21 and 22. This study led to the identification of chimeric transcripts that are composed of sequences coming form two distinct genes that can be map far away from each other.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse: Enjeux de la recherche : La pneumonie communautaire chez l'enfant est un problème de santé publique considérable. Elle est responsable de 2 millions de mort par année, 70% survenant dans les pays en voie de développement. Sous nos latitudes son incidence est de 40/1000 enfants par année, ce qui représente une morbidité importante. Deux difficultés surviennent lorsqu'on cherche à diagnostiquer une pneumonie. La première est de distinguer une pneumonie bactérienne d'une virale, particulièrement chez les petits enfants où les infections virales des voies respiratoires inférieures sont fréquentes. L'OMS a définit la pneumonie selon des critères exclusivement cliniques et une étude effectuée à Lausanne en 2000 a montré que ces critères peuvent être utilisés dans nos contrées. La seconde difficulté est de définir l'agent causal de la pneumonie, ceci pour plusieurs raisons : L'aspiration endotrachéale, seul examen fiable, ne peut être obtenue de routine chez l'enfant vu son caractère invasif, la culture des secrétions nasopharyngées reflète la flore physiologique de la sphère ORL et une bactériémie n'est présente que dans moins de 10% des pneumonies. L'étiologie de la pneumonie reste souvent inconnue, et de ce fait plusieurs enfants reçoivent des antibiotiques pour une infection non bactérienne ce qui contribue au développement de résistances. L'objectif de cette étude était d'effectuer une recherche extensive de l'agent causal de la pneumonie et de déterminer quels facteurs pourraient aider le clinicien à différencier une pneumonie virale de bactérienne, en corrélant l'étiologie avec la sévérité clinique et les marqueurs de l'inflammation. Contexte de la recherche : II s'agissait d'une étude prospective, multicentrique, incluant les enfants âgés de 2 mois à 5 ans hospitalisés pour une pneumonie, selon les critères de l'OMS, dans le service de pédiatrie de Lausanne et Genève entre mars 2003 et Décembre 2005, avant l'implantation de la vaccination antipneumococcique de routine. Chaque enfant, en plus des examens usuels, bénéficiait d'une recherche étiologique extensive : Culture virale et bactérienne, PCR (Mycoplasma Pneumoniae, Chlamydia Pneumoniae, Virus Influenza A et B, RSV A et B, Rhinovirus, Parainfluenza 1-3, enterovirus, human metapneumovirus, coronavirus OC43, E229 ; et NL 63) et détection d'AG viraux dans les sécrétions nasopharyngées ; sérologies virales et bactériennes à l'entrée et 3 semaines après la sortie (AG Influenza A et B, Parainfluenza 1,2 et 3, RSV, Adenovirus, M.Pneumoniae et S.Pneumoniae). Conclusions : Un agent pathogène a été découvert chez 86% des 99 patients retenus confirmant le fait que plus la recherche étiologique est étendue plus le pourcentage d'agent causal trouvé est élevé. Une infection bactérienne a été découverte chez 53% des patients dont 45% avaient une infection à S. Pneumoniae confirmant l'importance d'une vaccination antipneumococcique de routine. La déshydratation et les marqueurs de l'inflammation tels que la C-Reactive Protein et la Procalcitonine étaient significativement plus élevés dans les pneumonies bactériennes. Aucune corrélation n'a été trouvée entre le degré de sévérité de la pneumonie et l'étiologie. L'étude a confirmé la haute prévalence d'infections virales (67%) et de co-infection (33%) dans la pneumonie de l'enfant sans que l'on connaisse le rôle réel du virus dans la pathogenèse de la pneumonie. Perspectives : d'autres études à la suite de celle-ci devraient être effectuées en incluant les patients ambulatoires afin de déterminer, avec un collectif plus large de patient, une éventuelle corrélation entre sévérité clinique et étiologie. Abstract : Community-acquired pneumonia (CAP) is a major cause of death in developing countries and of morbidity in developed countries. The objective of the study was to define the causative agents among children hospitalized for CAP defined by WHO guidelines and to correlate etiology with clinical severity and surrogate markers. Investigations included an extensive etiological workup. A potential causative agent was detected in 86% of the 99 enrolled patients, with evidence of bacterial (53%), viral (67%), and mixed (33%) infections. Streptococcus pneumoniae was accounted for in 46% of CAP. Dehydration was the only clinical sign associated with bacterial pneumonia. CRP and PCT were significantly higher in bacterial infections. Increasing the number of diagnostic tests identifies potential causes of CAP in up to 86% of children, indicating a high prevalence of viruses and frequent co-infections. The high proportion of pneumococcal infections re-emphasizes the importance of pneumococcal immunization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les monuments des jeux visibles dans toutes les provinces de l'Empire romain impressionnent touj us le visiteur. Sur la rive sud de la Méditerranée, honnis les sites de la Tunisie comme Carthage on Dougga facilement accessibles au public, les villes romaines d'Algérie on du Maroc sont souvent moïas bien connues.Dans le cadre de notre thèse de doctorat, nous avons étudié chaque édifice de spectacle (théâtre, amphithéâtre, cirque et stade) connu dans les Manrétanïes, ainsi que les spectacles et les cérémonies qui s'y déroulaient. L'implication des jeux dans l'adoption des moeurs romaines par la population était essentielle. Noos avons aussi recensé toutes les inscriptions et les objets (lampes à huile, statuettes, mosaïques) liés aux divertissements retrouvés dans ces provinces. La majeure partie de notre travail a consisté en une analyse des données publiées sur les monuments et les spectacles romains dans les Manrétanies. Nous les avons mises en regard de nos recherches sur le terrain et nous avons proposé de nouvelles interprétations lorsque cela était possible.Nous avons choisi de limiter notre travail aux Maurétanies romaines, car il n'existe aucune étude d'ensemble concernant les spectacles pour ces provinces. Elles formaient une entité particulière, comme royaume maurétanien avant la colonisation romaine, puis réunies à plusieurs reprises sous l'autorité d'un seul gouverneur sous l'Empire. Se concentrer sur un territoire permet de mieux saisir dans sa totalité le phénomène des spectacles et surtout les particularités architecturales. De plus, les Mauiétanies césarienne et tingitane posent souvent un problème d'intégration à l'Empire. L'implantation sur ces territoires s'est peu développée en profondeur, les légions protégeant une longue bande de terre située entre le limes et la Méditerranée qu'il n'était pas toujours simple de contrôler. Cependant les cités pré-romaines ont largement adopté les us et coutumes du nouveau pouvoir. Les raines, l'épigraphie et les fouilles archéologiques ne laissent aucun doute. Les éléments liés au divertissements et (dus particulièrement aux spectacles symbolisent le rayonnement culturel romain.À la fin de cette étude, nous avons accordé une place particulière aux monuments des jeux d'Afrique pour comparer et mieux comprendre les spécificités des édifices mauiétaniens à l'échelle de ce continent. La réflexion a été poursuivie à l'échelle de l'Empire romain, certaines caractéristiques mauritaniennes se retrouvant à des milliers de kilomètres. Nous avons essayé d'appréhender quelles relations les Maurétanies entretenaient avec le reste de l'Empire par le biais des spectacles et comment ces jeux ont fini par disparaître du territoire maurétanien.Cet ouvrage est divisé en deux parties : un volume de texte et un volume d'annexes. Dans le volume de texte, le premier chapitre est l'introduction générale. Nous détaillons les raisons de notre étude, les problématiques de cette recherche et les méthodes de travail utilisées. Le chapitre deux présente les cadres géographique, historique et sociologique. Le chapitre trois propose un lexique architectural savant à décrire chaque partie des monuments. Π retrace aussi l'origine et l'évolution des jeux romains et présente la répartition du public ainsi que le prix des bâtiments et des spectacles. Le répertoire des sites et des monuments des jeux maurétaniens constitue le chapitre quatre. 11 est subdivisé par provinces (Maurétanie césarienne, Maurétanie sit îenne et Maurétanie tîngitane), puisque la construction des monuments est liée à l'histoire provinciale. Les mosaïques et les objets reprenant les thèmes ludiques sont présentés selon loir lieu de découverte. Dans le chapitre dnq, nous étudions l'évolution historique et fonctionnelle des édifices de spectacle. Nous essayons de comprendre quels sont leurs sources ou leurs modèles architecturaux et comment ils ont influencé les populations locales. À la suite de la conclusion générale nous avons placé la liste des abréviations et la bibliographie.Au début du volume d'annexes se trouvent plusieurs catalogues : ceux des chapiteaux du théâtre et du cirque de Caesarea et ceux des lampes romaines à thèmes ludiques d'Algérie et du Maroc. Ensuite nous avons placé la restitution de plusieurs inscriptions, toutes les figures mentionnées dans le texte du premier volume, puis les listes des tableaux et des figures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trace matérielle dispose d'un potentiel incomparable pour mettre en relation des indices et occupe souvent une place centrale lors du procès pénal (Ribaux et Margot, 2008). Au delà de son rôle élémentaire en tant qu'élément de preuve, la trace matérielle véhicule de nombreuses autres informations encore trop peu exploitées en matière d'investigation ou pour servir de base au renseignement criminel. C'est particulièrement le cas des liens chimiques découverts grâce au profilage physico-chimique de produits stupéfiants saisis par les autorités. Le but de ce travail est d'estimer l'apport de ces liens chimiques à la perception de la structure des réseaux criminels. Pour ce faire, nous nous appuyons sur des modèles d'analyse des réseaux sociaux (SNA, Social Network Analysis). Ces modèles sont toujours plus utilisés pour traiter des affaires qui relèvent de la criminalité organisée, notamment pour comprendre la structure et la dynamique de ces réseaux d'acteurs. L'analyse des réseaux sociaux (SNA) procède par le calcul de différents indicateurs pour mettre en évidence des éléments pertinents de leur structure et leurs acteurs clés. Par exemple, l'identification des vulnérabilités de l'organisation et des mécanismes mis en place par les acteurs pourra orienter les actions policières. Cette recherche se base sur une enquête concernant un réseau international de trafic de produits stupéfiants. En plus des autres informations d'enquête traditionnellement disponibles, des liens chimiques ont été mis en évidence par le profilage de l'héroïne saisie à différents endroits et périodes, puis utilisés par les enquêteurs. Cette recherche consiste à utiliser les indicateurs SNA pour évaluer l'influence de ces liens chimiques sur la structure de ce réseau construit à partir des autres indices. Les premiers résultats montrent que les liens chimiques sont cohérents avec les autres types de relations, et qu'ils tendent, à eux seuls, à mettre en évidence les positions centrales de certains acteurs clés. De plus, l'intégration de ces liens renforce les centralités de certains acteurs et permet ainsi de les considérer de manière plus centrale qu'ils ne l'étaient auparavant. Enfin, ces premiers résultats laissent entrevoir des perspectives intéressantes notamment au travers de la pondération de ces relations afin d'évaluer de manière plus globale l'apport du potentiel informatif de ce type de renseignement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sphingomonas wittichii is a gram-negative Alpha-proteobacterium, capable of degrading xenobiotic compounds such as dibenzofuran (DBF), dibenzo-p-dioxin, carbazole, 2-hydroxybiphenyl or nitro diphenyl ether herbicides. The metabolism of strain RW1 has been the subject of previous studies and a number of genes involved in DBF degradation have been characterized. It is known that RW1 posseses a unique initial DBF dioxygenase (encoded by the dxnAl gene) that catalyzes the first step in the degradation pathway. None of the organisms known to be able to degrade DBF have a similar dioxygenase, the closest match being the DBF dioxygenase from Rhodococcus sp. with an overall amino acid similarity of 45%. Genes participating in the conversion of the metabolite salicylate via the ortho-cleavage pathway to TCA cycle intermediates were identified as well. Apart from this scarce information, however, there is a lack of global knowledge on the genes that are involved in DBF degradation by strain RW1 and the influence of environmental stresses on DBF-dependent global gene expression. A global analysis is necessary, because it may help to better understand the behaviour of the strain under field conditions and suggest improvements for the current bioaugmentation practice. Chapter 2 describes the results of whole-genome analysis to characterize the genes involved in DBF degradation by RW1. Micro-array analysis allowed us to detect differences in gene transcription when strain RW1 was exposed to DBF. This was complemented by ultra-high throughput sequencing of mutants no longer capable of growing on salicylate and DBF. Some of the genes of the ortho-cleavage pathway were induced 2 to 4 times in the presence of DBF, as well as the initial DBF dioxygenase. However two gene clusters, named 4925 and 5102 were induced up to 19 times in response to DBF induction. The cluster 4925 is putatively participating in a meta-cleavage pathway while the cluster 5102 might be part of a gentisate pathway. The three pathways, ortho-cleavage, meta-cleavage and gentisate pathway seem to be active in parallel when strain RW1 is exposed to DBF, presenting evidence for a redundancy of genes for DBF degradation in the genome of RW1. Chapter 3 focuses on exploiting genetic tools to construct bioreporters representative for DBF degradation in RW1. A set of basic tools for genetic manipulation in Sphingomonas wittichii RW1 was tested and optimized. Both plasmids and mini-transposons were evaluated for their ability to be maintained in RW1 with or without antibiotic selection pressure, and for their ability to lead to fluorescent protein expression in strain RW1 from a constitutive promoter. Putative promoter regions of three of the previously found DBF-induced genes (Swit_4925, Swit_5102 and Swit_4897-dxnAl) were then used to construct eg/^-bioreporters in RW1. Chapter 4 describes the use of the constructed RW1-based bioreporter strains for examining the expression of the DBF degradation pathway genes under microcosm conditions. The bioreporter strains were first exposed to different carbon sources in liquid culture to calibrate the egfp induction. Contrary to our expectations from micro-array analysis only the construct with the promoter from gene cluster 4925 responded to DBF, whereas the other two constructs did not show specific induction with DBF. The response from the bioreporters was subsequently tested for sensitivity to water stress, given that this could have an important impact in soils. Exposure to liquid cultures with decreasing water potential, achieved by NaCl or PEG addition to the growth media, showed that eGFP expression in RW1 from the promoter regions 4925 and 5102 was not directly influenced by water stress, but only through an overall reduction in growth rate. In contrast, expression of eGFP from the dxnAl or an uspA promoter was also directly dependent on the extent of water stress. The RW1 with the 4925 construct was subsequently used in soil microcosms to evaluate DBF bioavailability to the cells in presence or absence of native microbiota or other contaminated material. We found that RW1 could grow on DBF added to soil, but bioreporter expression suggested that competition with native microbiota for DBF intermediates may limit its ability to proliferate to a maximum. Chapter 5 describes the results from the experiments carried out to more specifically detect genes of RW1 that might be implicated in water stress resistance. Hereto we created transposon mutagenesis libraries in RW1, either with a classical mini-Tn5 or with a variant that would express egfp when the transposon would insert in a gene induced under water stress. Classical mutant libraries were screened by replica plating under high and low water stress conditions (achieved by adding NaCl to the agar medium). In addition, we screened for smaller microcolonies formed by mutants in agarose beads that could be analized with flow cytometry. A number of mutants impaired to grow on NaCl-supplemented media were recovered and the transposon insertion sites sequenced. In a second procedure we screened by flow cytometry for mutants with a higher eGFP production after exposure to growth medium with higher NaCl concentrations. Mutants from both libraries rarely overlapped. Discovered gene functions of the transposon insertions pointed to compatible solute synthesis (glutamate and proline), cell membrane synthesis and modification of cell membrane composition. The results obtained in the present study give us a more complete picture of the mechanisms of DBF degradation by S. wittichii RW1, how it reacts to different DBF availability and how the DBF catabolic activity may be affected by the conditions found in contaminated environments. - Sphingomonas wittichii est une alpha-protéobactérie gram-négative, capable de dégrader des composés xénobiotiques tels que le dibenzofurane (DBF), la dibenzo-p-dioxine, le carbazole, le 2-hydroxybiphényle ou les herbicides dérivés du nitro-diphényléther. Le métabolisme de la souche RW1 a fait l'objet d'études antérieures et un certain nombre de gènes impliqués dans la dégradation du DBF ont été caractérisés. Il est connu que RW1 possède une unique dioxygénase DBF initiale (codée par le gène dxnAl) qui catalyse la première étape de la voie de dégradation. Aucun des organismes connus pour être capables de dégrader le DBF n'a de dioxygénase similaire. L'enzyme la plus proche étant la DBF dioxygénase de Rhodococcus sp. avec 45% d'acides aminés conservés. Les gènes qui participent à la transformation du salicylate en métabolites intermédiaires du cycle de Krebs par la voie ort/io-cleavage ont aussi été identifiés. Outre ces informations lacunaires, il y a un manque de connaissances sur l'ensemble des gènes impliqués dans la dégradation du DBF par la souche RW1 ainsi que l'effet des stress environnementaux sur l'expression génétique globale, en présence du DBF. Une analyse globale est nécessaire, car elle peut aider à mieux comprendre le comportement de la souche dans les conditions de terrain et de proposer des améliorations pour l'utilisation de la bio-augmentation comme technique de bio-remédiation. Le chapitre 2 décrit les résultats de l'analyse du génome pour caractériser les gènes impliqués dans la dégradation du DBF par RW1. Une analyse de micro-arrays nous a permis de détecter des différences dans la transcription des gènes lorsque la souche RW1 a été exposée au DBF. L'analyse a été complétée par le criblage à ultra-haut débit de mutants qui n'étaient plus capables de croître avec le salicylate ou le DBF comme seule source de carbone. Certains des gènes de la voie ortho-cleavage, dont la DBF dioxygénase initiale, ont xî été induits 2 à 4 fois, en présence du DBF. Cependant, deux groupes de gènes, nommés 4925 et 5102 ont été induits jusqu'à 19 fois en réponse au DBF. Le cluster 4925 participe probablement dans une voie de meta-cleavage tandis que le cluster 5102 pourrait faire partie d'une voie du gentisate. Les trois voies, ortho-cleavage, meta-cleavage et la voie du gentisate semblent être activées en parallèle lorsque la souche RW1 est exposée au DBF, ce qui représente une redondance de voies pour la dégradation du DBF dans le génome de RW1. Le chapitre 3 se concentre sur l'exploitation des outils génétiques pour la construction de biorapporteurs de la dégradation du DBF par RW1. Un ensemble d'outils de base pour la manipulation génétique dans Sphingomonas wittichii RW1 a été testé et optimisé. Deux plasmides et mini-transposons ont été évalués pour leur capacité à être maintenu dans RW1 avec ou sans pression de sélection par des antibiotiques, et pour leur capacité à exprimer la protéine fluorescente verte (eGFP) dans la souche RW1. Les trois promoteurs des gènes Swit_4925, Swit_5102 et Swit_4897 (dxnAl), induits en réponse au DBF, ont ensuite été utilisés pour construire des biorapporteurs dans RW1. Le chapitre 4 décrit l'utilisation des souches biorapportrices construites pour l'analyse de l'expression des gènes de la voie de dégradation du DBF dans des microcosmes avec différents types de sols. Les souches biorapportrices ont d'abord été exposées à différentes sources de carbone en cultures liquides afin de calibrer l'induction de la eGFP. La construction avec le promoteur du gène 4925 a permis une réponse au DBF. Mais contrairement à nos attentes, basées sur les résultats de l'analyse des micro-arrays, les deux autres constructions n'ont pas montré d'induction spécifique au DBF. La réponse des biorapporteurs a ensuite été testée pour la sensibilité au stress hydrique, étant donné que cela pourrait avoir un impact important dans les microcosmes. La diminution du potentiel hydrique en culture liquide est obtenue par addition de NaCl ou de PEG au milieu de croissance. Nous avons montré que l'expression de la eGFP contrôlée par les promoteurs 4925 et 5102 n'était pas directement influencée par le stress hydrique, mais seulement par une réduction globale des taux de croissance. En revanche, l'expression de la eGFP dépendante des promoteurs dxnAl et uspA était aussi directement dépendante de l'ampleur du stress hydrique. La souche avec la construction 4925 a été utilisée par la suite dans des microcosmes avec différents types de sols pour évaluer la biodisponibilité du DBF en présence ou absence des microbes indigènes et d'autres composés contaminants. Nous avons constaté que RW1 pouvait se développer si le DBF a été ajouté au sol, mais l'expression de la eGFP par le biorapporteur suggère que la compétition avec la microbiota indigène pour les métabolites intermédiaires du DBF peut limiter sa capacité à proliférer de manière optimale. Le chapitre 5 décrit les résultats des expériences réalisées afin de détecter spécifiquement les gènes de RW1 qui pourraient être impliquées dans la résistance au stress hydrique. Ici on a crée des bibliothèques de mutants de RW1 par transposon, soit avec un mini-Tn5 classique ou avec une variante qui exprime la eGFP lorsque le transposon s'insère dans un gène induit par le stress hydrique. Les bibliothèques de mutants ont été criblées par la méthode classique de repiquage sur boîtes, dans des conditions de stress hydrique élevé (obtenu par l'addition de NaCl dans les boîtes). En outre, nous avons criblé des micro¬colonies dans des billes d'agarose qui ont pu être analysées par cytométrie de flux. Un certain nombre de mutants déficients à croître sur des milieux supplémentés avec du NaCl ont été isolés et les sites d'insertion du transposon séquencés. Dans une deuxième procédure nous avons criblé par cytométrie de flux des mutants avec une production de eGFP supérieure, après exposition à un milieu de croissance avec une concentration élevée de NaCl. Les mutants obtenus dans les deux bibliothèques n'étaient pas similaires. Les fonctions des gènes où se trouvent les insertions de transposons sont impliqués dans la synthèse de solutés compatibles (glutamate et de la proline), dans la synthèse de la membrane cellulaire et dans la modification de la composition de la membrane cellulaire. Les résultats obtenus dans la présente étude nous donnent une image plus complète des mécanismes de dégradation du DBF par S. wittichii RW1, comment cette souche réagit à la disponibilité du DBF et comment l'activité catabolique peut être affectée par les conditions rencontrées dans des environnements contaminés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théologie est-elle une science ? Ce débat n'est pas nouveau, et il accompagne les différentes disciplines de la théologie au moins depuis le siècle des Lumières. Dans la discussion actuelle, par exemple entre théologie et sciences religieuses, les disciplines théologiques qui apparaissent souvent comme les plus "scientifiques" sont les sciences bibliques et l'histoire du christianisme. Il ne fait à mon avis aucun doute qu'il s'agit là des disciplines qui posent le moins problème pour une position qu'on pourrait qualifier de "laïque". Et cependant, ce serait un leurre de croire que ces méthodes sont exemptes de présuppositions théologiques ou idéologiques. Je n'ai pas l'intention d'entrer ici dans le débat sur le problème de l'objectivité de la science, faute de temps et de compétence. J'aimerais plus modestement montrer, à partir de l'exégèse de la Bible hébraïque, l'interconnexion - pas toujours consciente - entre certains modèles exégétiques et les options idéologiques des savants qui défendent ou promeuvent ces modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) En Europe occidentale on hésite entre le fin des héros, saints et martyrs comme points d'ancrage et guide de collectivités (religieuses ou politiques), et les quêtes d'identité et d'identification. Scepticisme humaniste et individualisme dévaluent des héros nationaux au profit d'emballements médiatiques éphémères pour des vedettes du sport, de l'humanitaire (mère Teresa), des familles royales (la princesse Diana). Se raréfient des modèles stables, inspirant des conduites privées et sociales raisonnablement gérées, et une adhésion durable et fervente. L'ouvrage offre l'analyse de nouveaux contextes où s'effectuent la promotion et l'exaltation de la sainteté, de l'exemplarité ou du martyre, dans des sociétés extra-européennes (Maroc, Inde, Afghanistan) et apparemment laïcisées (France, Bulgarie).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant du concept de « politique des petites choses », cette contribution éclaire les coulisses de la précampagne de l'élection présidentielle américaine de 2004. D'abord centrée sur la campagne du démocrate Howard Dean, l'enquête documente ensuite les activités de la droite chrétienne, et montre la redoutable efficacité de cet acteur politique, ainsi que les problèmes qu'il pose à la démocratie. Si la droite chrétienne est habile à mobiliser ses fidèles et à attiser leur participation, son mode de fonctionnement est éminemment problématique, les réseaux d'Églises sur lesquels elle s'appuie n'étant pas des modèles de fonctionnement et d'éthos démocratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IntroductionNous avons diagnostiqué et traité un patient atteint de nocardiose oculaire endogène. Grâce à la chirurgie vitréo-rétinienne, le diagnostique définitif a pu être établi avec un résultat oculaire fonctionnel excellent. La nocardiose oculaire endogène étant une maladie rare, l'image clinique oculaire et la prise en charge n'ont pas encore été décrites systématiquement. Nous avons analysé tous les cas rapportés dans la littérature mondiale (38 cas, publiés jusqu'en 2007) pour trouver des indices sur la physiopathologie, la présentation oculaire, sur la meilleure façon d'établir le diagnostique et sur l'efficacité du traitement antibiotique systémique. Enfin, nous avons établit des directives pour la prise en charge oculaire.La nocardiose (défini comme maladie systémique ou locale) est une maladie touchant surtout des patients immunosupprimés ou immunocompromis comme les patients transplantés, avec maladie auto-immune, atteints du virus HIV sans HAART ou des patients ayant subit un trauma, une opération avec inoculation du germe. Aux Etats-Unis environs 500-1000 nouveaux cas sont diagnostiqués par année avec 20% de dissémination dans des autres organes, le plus fréquemment dans le cerveau. Environs 0.6-1% des patients (3-5 cas/année/US) auront un foyer dans l'oeil, c'est-à-dire la nocardiose oculaire endogène. Nocarida est un Actinomycète, classé comme bactérie, avec une morphologie et un comportement proche aux champignons, avec un cycle de reproduction lente, se trouvant dans la poussière (ubiquitaire) et la matière végétale se décomposant. Elle est sensible aux sulfamides avec émergence de résistances. La mortalité est environs de 25%.RésultatsLa moitié des patients présentait comme premier signe de la maladie systémique des problèmes oculaires, le plus souvent une baisse d'acuité visuelle progressive indolore. Un abcès choroïdien unilatéral unique dans la région maculaire associé ou non à un décollement rétinien séreux et/ou à une vitrite variable était la présentation dans 70% des cas. Nocardia dissémine au niveau des choriocapillaires, rarement, dans l'iris résultant dans un hypopyon isolé. Il y a deux modes de propagation locale: vers l'intérieur, par une nécrose de l'épithélium pigmentaire avec l'envahissement de la rétine et du corps vitré; vers l'extérieure, produisant une sclérite résultant dans une perforation du globe. Avant la séquestration au niveau du corps vitré, la réponse au traitement par antibiose voie générale est favorable: 75% des cas analysés. La rupture de la barrière hémato-oculaire externe (épithélium pigmentaire) peut être mis en évidence par la fluorescence angiographique : les images tardives montrent la diffusion de la fluorescéine dans le corps vitré. Si le corps vitré est atteint, au minimum des injections antibiotiques intravitréen (amikacin), mieux une vitréctomie sont indiqué pour diminuer la charge bactérienne et faciliter la pénétration des antibiotiques donnés par voie systémique. Signes d'une extériorisation d'un abcès choroïdien sont des douleurs intenses, l'exophthalmie et l'hypopyon associé.Soixante-deux pourcents des patients ont souffert d'une dissémination continue par retardement du diagnostique/traitement. La moitié des patients ont eu des abcès cérébraux avant, simultanément ou après présentation. Un quart des patients sont décédés suite de la nocardiose, 32% incluant la maladie de base (tumeur maligne hématologique) ou des autres infections opportunistiques (aspergillose). La morbidité oculaire est importante: un tiers des patients survivants ont retenu une acuité visuelle 0.5 ou mieux, un tiers une acuité visuelle égale ou inférieure à 0.1 et un tiers ont perdu l'oeil par énucléation/éviscération(l). La suspicion clinique et la biopsie de la lésion pour un examen microbiologique direct et des cultures sont cruciales pour la prise en charge. Les risques facteurs sont sexe masculin (4 :1), stéroïdes, immunosuppression pour transplantation ou maladie auto-immune et des tumeurs hématologiques malignes, plus rarement des accidents/ traumas graves. La ponction directe de la lésion assure les meilleures chances pour collectionner un spécimen contenant des bactéries: dans des petits abcès sous-rétiniens maculaires par ponction transvitréenne sous-rétinienne par aiguille fine décrit par le Prof. Augsburger (Référence 7) ou dans des lésions avancées par biopsie sous-rétinienne/rétinienne pendant une vitréctomie selon l'extension et la localisation de l'abcès. Le spécimen doit être préparé pour un examen direct (4 lames) et des cultures utilisant des plaques ordinaires sauf exceptions. La suspicion doit être communiquée au laboratoire et les cultures incubées de façon prolongée (4-6 semaines). Un bilan d'extension avec au minimum un CT scan thoracique et une IRM cérébrale sont indiqués.Le traitement de choix est un antibiotique du groupe des sulfamides à haute dose comme par exemple le co- trimoxazole à double dose. Le choix, le nombre et le dosage du/des médicaments doivent être adapté selon résistance, extension de la maladie, médicaments autres et état de santé général du patient (foie, reins). Les figures 6a et 6b illustrent la prise en charge de patients selon diagnostique établit (Fig. 6b) ou non (Fig 6a).