631 resultados para Fonction pulmonaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs pédagogiques: Rappeler les indications de la TDM au cours des infections pulmonaires .Après un rappel histopathologique, connaître les différentes présentations possibles des infections pulmonaires .Connaître les différentes expressions en imagerie selon le statuts immunitaires et les germes concernés .Connaître les diagnostics différentiels selon l'aspect réalisé. Messages à retenir: La place du scanner est indiscutable au cours des infections pulmonaires en cas de discordance radio -clinique, en particulier chez les sujets immunodéprimés.Chez les sujets immunodéprimés, la tuberculose, l'aspergillose et la pneumocystose doivent être constamment gardées à l'esprit.Le spectre de présentation de l'aspergillose pulmonaire avec les particularités des formes invasives , de type angio-invasive ou avec atteinte trachéo-bronchique,et des formes chroniques cavitaires ou nécrosantes doit être connu, le diagnostic devant être évoqué selon le type d'immunodépression. Résumé: La place de l'imagerie est essentielle au cours des infections pulmonaires . La TDM doit être effectuée en cas de forte suspicion clinique de pneumonie avecaspect radiographique normal, équivoque ou non spécifique. Ceci concerne particulièrement les sujets immunodéprimés. Elle permet de détecter les anomaliesassociées ou une affection sous-jacente, d'orienter un lavage broncho-alvéolaire ou de guider une biopsie pulmonaire percutanée ou transbronchique. Lesexpressions d'un germe selon le degré d'immunodépression telles que la tuberculose au cours du SIDA seront présentées, ainsi que celles de certainesinfections pouvant engager rapidement le pronostic vital. Le spectre radiologique de l'aspergillose pulmonaire sera développé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Natural environments are constantly challenged by the release of hydrophobic organic contaminants, which represent a threat for both the ecosystem and human health. Despite a substantial degradation by naturally occurring micro-organisms, a non negligible fraction of these pollutants tend to persist in soil and sediments due to their reduced accessibility to microbial degraders. This lack of 'bioavailability' is acknowledged as a key parameter for the natural and stimulated clean-up (bioremediation) of contaminated sites. We developed a bacterial bioreporter that responds to the presence of polyaromatic hydrocarbons (PAHs) by the production of the green fluorescent protein (GFP), based on the PAH-degrading bacterium Burkholderia sartisoli. We showed in this study that the bacterial biosensor B. sartisoli strain RP037 was faithfully reporting the degradation of naphthalene and phenanthrene (two PAHs of low molecular weight) via the production of GFP. What is more, the magnitude of GFP induction was influenced by change in the PAH flux triggered by a variety of physico-chemical parameters, such as the contact surface between the pollutant and the aqueous suspension. Further experiments permitted to test the influence of dissolved organic matter, which is an important component of natural habitats and can interact with organic pollutants. In addition, we tested the influence of two types of biosurfactants (tensio-active agents produced by living organisms) on phenanthrene's degradation by RP037. Interestingly, the surfactant's effects on the biodegradation rate appeared to depend on the type of biosurfactant and probably on the type of bacterial strain. Finally, we tagged B. sartisoli strain RP037 with a constitutively expressed mCherry fluorescent protein. The presence of mCherry allowed us to visualize the bacteria in complex samples even when GFP production was not induced. The new strain RP037-mChe embedded in a gel patch was used to detect PAH fluxes from a point source, such as a non-aqueous liquid or particles of contaminated soil. In parallel, we also developed and tested a so-called multiwell bacterial biosensor platform, which permitted the simultaneous use of four different reporter strains for the detection of major crude oil components (e.g., saturated hydrocarbons, mono- and polyaromatics) in aqueous samples. We specifically constructed the strain B. sartisoli RP007 (pPROBE-phn-luxAB) for the detection of naphthalene and phenanthrene. It was equipped with a reporter plasmid similar to the one in strain RP037, except that the gfp gene was replaced by the genes luxAB, which encoded the bacterial luciferase. The strain was implemented in the biosensor platform and detected an equivalent naphthalene concentration in oil spilled-sea water. We also cloned the gene for the transcriptional activator AlkS and the operator/promoter region of the operon alkSB1GHJ from the alkane-degrader bacterium Alcanivorax borkumensis strain SK2 in order to construct a new bacterial biosensor with higher sensitivity towards long-chain alkanes. However, the resulting strain showed no increased light emission in presence of tetradecane (C14), while it still efficiently reported low concentrations of octane (C8). RÉSUMÉ : Les écosystèmes naturels sont constamment exposés à nombre de contaminants organiques hydrophobes (COHs) d'origine industrielle, agricole ou même naturelle. Les COHs menacent à la fois l'environnement, le bien-être des espèces animales et végétales et la santé humaine, mais ils peuvent être dégradés par des micro-organismes tels que les bactéries et les champignons, qui peuvent être capables des les transformer en produits inoffensifs comme le gaz carbonique et l'eau. La biodégradation des COHs est cependant fréquemment limitée par leur pauvre disponibilité envers les organismes qui les dégradent. Ainsi, bien que la biodégradation opère partiellement, les COHs persistent dans l'environnement à de faibles concentrations qui potentiellement peuvent encore causer des effets toxiques chroniques. Puisque la plupart des COHs peuvent être métabolisés par l'activité microbienne, leur persistance a généralement pour origine des contraintes physico-chimiques plutôt que biologiques. Par exemple, leur solubilité dans l'eau très limitée réduit leur prise par des consommateurs potentiels. De plus, l'adsorption à la matière organique et la séquestration dans les micropores du sol participent à réduire leur disponibilité envers les microbes. Les processus de biodisponibilité, c'est-à-dire les processus qui gouvernent la dissolution et la prise de polluants par les organismes vivants, sont généralement perçus comme des paramètres clés pour la dépollution (bioremédiation) naturelle et stimulée des sites contaminés. Les hydrocarbures aromatiques polycycliques (HAPs) sont un modèle de COH produits par les activités aussi bien humaines que naturelles, et listés comme des contaminants chroniques de l'air, des sols et des sédiments. Ils peuvent être dégradés par un vaste nombre d'espèces bactériennes mais leur taux de biodégradation est souvent limité par les contraintes mentionnées ci-dessus. Afin de comprendre les processus de biodisponibilité pour les cellules bactériennes, nous avons décidé d'utiliser les bactéries elles-mêmes pour détecter et rapporter les flux de COH. Ceci a été réalisé par l'application d'une stratégie de conception visant à produire des bactéries `biocapteurs-rapporteurs', qui littéralement s'allument lorsqu'elles détectent un composé cible pour lequel elles ont été conçues. En premier lieu, nous nous sommes concentrés sur Burkholderia sartisoli (souche RP007), une bactérie isolée du sol et consommatrice de HAP .Cette souche a servi de base à la construction d'un circuit génétique permettant la formation de la protéine autofluorescente GFP dès que les cellules détectent le naphtalène ou le phénanthrène, deux HAP de faible masse moléculaire. En effet, nous avons pu montrer que la bactérie obtenue, la souche RP037 de B. sartisoli, produit une fluorescence GFP grandissante lors d'une exposition en culture liquide à du phénanthrène sous forme cristalline (0.5 mg par ml de milieu de culture). Nous avons découvert que pour une induction optimale il était nécessaire de fournir aux cellules une source additionnelle de carbone sous la forme d'acétate, ou sinon seul un nombre limité de cellules deviennent induites. Malgré cela, le phénanthrène a induit une réponse très hétérogène au sein de la population de cellules, avec quelques cellules pauvrement induites tandis que d'autres l'étaient très fortement. La raison de cette hétérogénéité extrême, même dans des cultures liquides mélangées, reste pour le moment incertaine. Plus important, nous avons pu montrer que l'amplitude de l'induction de GFP dépendait de paramètres physiques affectant le flux de phénanthrène aux cellules, tels que : la surface de contact entre le phénanthrène solide et la phase aqueuse ; l'ajout de surfactant ; le scellement de phénanthrène à l'intérieur de billes de polymères (Model Polymer Release System) ; la dissolution du phénanthrène dans un fluide gras immiscible à l'eau. Nous en avons conclu que la souche RP037 détecte convenablement des flux de phénantrène et nous avons proposé une relation entre le transfert de masse de phénanthrène et la production de GFP. Nous avons par la suite utilisé la souche afin d'examiner l'effet de plusieurs paramètres chimiques connus dans la littérature pour influencer la biodisponibilité des HAP. Premièrement, les acides humiques. Quelques rapports font état que la disponibilité des HAP pourrait être augmentée par la présence de matière organique dissoute. Nous avons mesuré l'induction de GFP comme fonction de l'exposition des cellules RP037 au phénanthrène ou au naphtalène en présence ou absence d'acides humiques dans la culture. Nous avons testé des concentrations d'acides humiques de 0.1 et 10 mg/L, tandis que le phénanthrène était ajouté via l'heptamethylnonane (HMN), un liquide non aqueux, ce qui au préalable avait produit le plus haut flux constant de phénanthrène aux cellules. De plus, nous avons utilisé des tests en phase gazeuse avec des concentrations d'acides humiques de 0.1, 10 et 1000 mg/L mais avec du naphtalène. Contrairement à ce que décrit la littérature, nos résultats ont indiqué que dans ces conditions l'expression de GFP en fonction de l'exposition au phénanthrène dans des cultures en croissance de la souche RP037 n'était pas modifiée par la présence d'acides humiques. D'un autre côté, le test en phase gazeuse avec du naphtalène a montré que 1000 mg/L d'acides humiques abaissent légèrement mais significativement la production de GFP dans les cellules de RP037. Nous avons conclu qu'il n'y a pas d'effet général des acides humiques sur la disponibilité des HAP pour les bactéries. Par la suite, nous nous sommes demandé si des biosurfactants modifieraient la disponibilité du phénanthrène pour les bactéries. Les surfactants sont souvent décrits dans la littérature comme des moyens d'accroître la biodisponibilité des COHs. Les surfactants sont des agents tensio-actifs qui augmentent la solubilité apparente de COH en les dissolvant à l'intérieur de micelles. Nous avons ainsi testé si des biosurfactants (des surfactants produits par des organismes vivants) peuvent être utilisé pour augmenter la biodisponibilité du phénanthrène pour la souche B. sartisoli RP037. Premièrement, nous avons tenté d'obtenir des biosurfactants produits par une autre bactérie vivant en co-culture avec les biocapteurs bactériens. Deuxièmement, nous avons utilisé des biosurfactants purifiés. La co-cultivation en présence de la bactérie productrice de lipopeptide Pseudomonas putida souche PCL1445 a augmenté l'expression de GFP induite par le phénanthrène chez B. sartisoli en comparaison des cultures simples, mais cet effet n'était pas significativement différent lorsque la souche RP037 était co-cultivée avec un mutant de P. putida ne produisant pas de lipopeptides. L'ajout de lipopeptides partiellement purifiés dans la culture de RP037 a résulté en une réduction de la tension de surface, mais n'a pas provoqué de changement dans l'expression de GFP. D'un autre côté, l'ajout d'une solution commerciale de rhamnolipides (un autre type de biosurfactants produits par Pseudomonas spp.) a facilité la dégradation du phénanthrène par la souche RP037 et induit une expression de GFP élevée dans une plus grande proportion de cellules. Nous avons ainsi conclu que les effets des biosurfactants sont mesurables à l'aide de la souche biocapteur, mais que ceux-ci sont dépendants du type de surfactant utilisé conjointement avec le phénanthrène. La question suivante que nous avons abordée était si les tests utilisant des biocapteurs peuvent être améliorés de manière à ce que les flux de HAP provenant de matériel contaminé soient détectés. Les tests en milieu liquide avec des échantillons de sol ne fournissant pas de mesures, et sachant que les concentrations de HAP dans l'eau sont en général extrêmement basses, nous avons conçu des tests de diffusion dans lesquels nous pouvons étudier l'induction par les HAPs en fonction de la distance aux cellules. Le biocapteur bactérien B. sartisoli souche RP037 a été marqué avec une seconde protéine fluorescente (mCherry), qui est constitutivement exprimée dans les cellules et leur confère une fluorescence rouge/rose. La souche résultante RP037-mChe témoigne d'une fluorescence rouge constitutive mais n'induit la fluorescence verte qu'en présence de naphtalène ou de phénanthrène. La présence d'un marqueur fluorescent constitutif nous permet de visualiser les biocapteurs bactériens plus facilement parmi des particules de sol. Un test de diffusion a été conçu en préparant un gel fait d'une suspension de cellules mélangées à 0.5 % d'agarose. Des bandes de gel de dimensions 0.5 x 2 cm x 1 mm ont été montées dans des chambres d'incubation et exposées à des sources de HAP (soit dissouts dans du HMN ou en tant que matériel solide, puis appliqués à une extrémité de la bande). En utilisant ce montage expérimental, le naphtalène ou le phénanthrène (dissouts dans du HMN à une concentration de 2.5 µg/µl) ont induit un gradient d'intensité de fluorescence GFP après 24 heures d'incubation, tandis que la fluorescence mCherry demeurait comparable. Un sol contaminé par des HAPs (provenant d'un ancien site de production de gaz) a induit la production de GFP à un niveau comparable à celui du naphtalène. Des biocapteurs bactériens individuels ont également détecté un flux de phénanthrène dans un gel contenant des particules de sol amendées avec 1 et 10 mg/g de phénanthrène. Ceci a montré que le test de diffusion peut être utilisé pour mesurer des flux de HAP provenant de matériel contaminé. D'un autre côté, la sensibilité est encore très basse pour plusieurs sols contaminés, et l'autofluorescence de certains échantillons rend difficile l'identification de la réponse de la GFP chez les cellules. Pour terminer, un des points majeurs de ce travail a été la production et la validation d'une plateforme multi-puits de biocapteurs bactériens, qui a permis l'emploi simultané de plusieurs souches différentes de biocapteurs pour la détection des constituants principaux du pétrole. Pour cela nous avons choisi les alcanes linéaires, les composés mono-aromatiques, les biphényls et les composés poly-aromatiques. De plus, nous avons utilisé un capteur pour la génotoxicité afin de détecter la `toxicité globale' dans des échantillons aqueux. Plusieurs efforts d'ingénierie ont été investis de manière à compléter ce set. En premier lieu, chaque souche a été équipée avec soit gfp, soit luxAB en tant que signal rapporteur. Deuxièmement, puisqu'aucune souche de biocapteur n'était disponible pour les HAP ou pour les alcanes à longues chaînes, nous avons spécifiquement construit deux nouveaux biocapteurs. L'un d'eux est également basé sur B. sartisoli RP007, que nous avons équipé avec le plasmide pPROBE-phn-luxAB pour la détection du naphtalène et du phénanthrène mais avec production de luciférase bactérienne. Un autre est un nouveau biocapteur bactérien pour les alcanes. Bien que nous possédions une souche Escherichia coli DHS α (pGEc74, pJAMA7) détectant les alcanes courts de manière satisfaisante, la présence des alcanes à longues chaînes n'était pas rapportée efficacement. Nous avons cloné le gène de l'activateur transcriptionnel A1kS ainsi que la région opérateur/promoteur de l'opéron alkSB1GHJ chez la bactérie dégradant les alcanes Alcanivorax borkumensis souche SK2, afin de construire un nouveau biocapteur bactérien bénéficiant d'une sensibilité accrue envers les alcanes à longues chaînes. Cependant, la souche résultante E. coli DHSα (pAlk3} n'a pas montré d'émission de lumière augmentée en présence de tétradécane (C14), tandis qu'elle rapportait toujours efficacement de basses concentrations d'octane (C8). De manière surprenante, l'utilisation de A. borkumensis en tant que souche hôte pour le nouveau plasmide rapporteur basé sur la GFP a totalement supprimé la sensibilité pour l'octane, tandis que la détection de tétradécane n'était pas accrue. Cet aspect devra être résolu dans de futurs travaux. Pour calibrer la plateforme de biocapteurs, nous avons simulé une fuite de pétrole en mer dans une bouteille en verre ouverte de 5L contenant 2L d'eau de mer contaminée avec 20 ml (1%) de pétrole brut. La phase aqueuse a été échantillonée à intervalles réguliers après la fuite durant une période allant jusqu'à une semaine tandis que les principaux contaminants pétroliers étaient mesurés via les biocapteurs. L'émission de bioluminescence a été mesurée de manière à déterminer la réponse des biocapteurs et une calibration intégrée faite avec des inducteurs types a servi à calculer des concentrations d'équivalents inducteurs dans l'échantillon. E. coli a été utilisée en tant que souche hôte pour la plupart des spécificités des biocapteurs, à l'exception de la détection du naphtalène et du phénanthrène pour lesquels nous avons utilisé B. sartisoli. Cette souche, cependant, peut être employée plus ou moins selon la même procédure. Il est intéressant de noter que le pétrole répandu a produit une apparition séquentielle de composés dissouts dans la phase aqueuse, ceux-ci .étant détectables par les biocapteurs. Ce profil contenait d'abord les alcanes à courtes chaînes et les BTEX (c'est-à dire benzène, toluène, éthylbenzène et xylènes), apparaissant entre des minutes et des heures après que le pétrole a été versé. Leurs concentrations aqueuses ont par la suite fortement décru dans l'eau échantillonnée après 24 heures, à cause de la volatilisation ou de la biodégradation. Après quelques jours d'incubation, ces composés sont devenus indétectables. Les HAPs, en revanche, sont apparus plus tard que les alcanes et les BTEX, et leur concentration a augmenté de pair avec un temps d'incubation prolongé. Aucun signal significatif n'a été mis en évidence avec le biocapteur pour le biphényl ou pour la génotoxicité. Ceci démontre l'utilité de ces biocapteurs, spécifiquement pour la détection des composés pétroliers, comprenant les alcanes à courtes chaînes, les BTEX et les HAPs légers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crise économique et financière des années 1930 a profondément marqué la Suisse. Les exportations s'effondrent. Une des huit grandes banques du pays fait faillite. En hiver 1935, plus de 8% de la population active est touchée par le chômage. La pauvreté frappe près d'un habitant sur cinq. Contrairement à la plupart des pays, la Suisse ne change pas de politique monétaire jusqu'en septembre 1936. La politique du franc fort constitue pour les dirigeants helvétiques l'épine dorsale de leur politique de crise. La politique financière fédérale traduit le souci de la majorité bourgeoise de défendre l'équilibre budgétaire coûte que coûte et d'imposer les charges de la crise sur la majorité populaire. Enfin, les interventions de l'État dans l'économie illustrent la sélectivité de l'action fédérale. D'un côté, on retrouve une injection massive d'argent public, par exemple dans les sauvetages bancaires; de l'autre côté, la politique de lutte contre le chômage reste rachitique et discriminatoire. Quant au combat contre la pauvreté, il est inexistant. Les politiques de crise poursuivies par la Confédération sont principalement orientées en fonction des intérêts des dirigeants de l'industrie d'exportation et de la place financière. Le présent ouvrage vise à mettre en évidence ces politiques et à en discuter les fondements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quand on parle de l'acide lactique (aussi connu sous le nom de lactate) une des premières choses qui vient à l'esprit, c'est son implication en cas d'intense activité musculaire. Sa production pendant une activité physique prolongée est associée avec la sensation de fatigue. Il n'est donc pas étonnant que cette molécule ait été longtemps considérée comme un résidu du métabolisme, possiblement toxique et donc à éliminer. En fait, il a été découvert que le lactate joue un rôle prépondérant dans le métabolisme grâce à son fort potentiel énergétique. Le cerveau, en particulier les neurones qui le composent, est un organe très gourmand en énergie. Récemment, il a été démontré que les astrocytes, cellules du cerveau faisant partie de la famille des cellules gliales, utilisent le glucose pour produire du lactate comme source d'énergie et le distribue aux neurones de manière adaptée à leur activité. Cette découverte a renouvelé l'intérêt scientifique pour le lactate. Aujourd'hui, plusieurs études ont démontré l'implication du lactate dans d'autres fonctions de la physiologie cérébrale. Dans le cadre de notre étude, nous nous sommes intéressés au rapport entre neurones et astrocytes avec une attention particulière pour le rôle du lactate. Nous avons découvert que le lactate possède la capacité de modifier la communication entre les neurones. Nous avons aussi décrypté le mécanisme grâce auquel le lactate agit, qui est basé sur un récepteur présent à la surface des neurones. Cette étude montre une fonction jusque-là insoupçonnée du lactate qui a un fort impact sur la compréhension de la relation entre neurones et astrocytes. - Relatively to its volume, the brain uses a large amount of glucose as energy source. Furthermore, a tight link exists between the level of synaptic activity and the consumption of energy equivalents. Astrocytes have been shown to play a central role in the regulation of this so-called neurometabolic coupling. They are thought to deliver the metabolic substrate lactate to neurons in register to glutamatergic activity. The astrocytic uptake of glutamate, released in the synaptic cleft, is the trigger signal that activates an intracellular cascade of events that leads to the production and release of lactate from astrocytes. The main goal of this thesis work was to obtain detailed information on the metabolic and functional interplay between neurons and astrocytes, in particular on the influence of lactate besides its metabolic effects. To gain access to both spatial and temporal aspects of these dynamic interactions, we used optical microscopy associated with specific fluorescent indicators, as well as electrophysiology. In the first part of this thesis, we show that lactate decreases spontaneous neuronal, activity in a concentration-dependent manner and independently of its metabolism. We further identified a receptor-mediated pathway underlying this modulatory action of lactate. This finding constituted a novel mechanism for the modulation of neuronal transmission by lactate. In the second part, we have undergone a characterization of a new pharmacological tool, a high affinity glutamate transporter inhibitor. The finality of this study was to investigate the detailed pharmacological properties of the compound to optimize its use as a suppressor of glutamate signal from neuron to astrocytes. In conclusion, both studies have implications not only for the understanding of the metabolic cooperation between neurons and astrocytes, but also in the context of the glial modulation of neuronal activity. - Par rapport à son volume, le cerveau utilise une quantité massive de glucose comme source d'énergie. De plus, la consommation d'équivalents énergétiques est étroitement liée au niveau d'activité synaptique. Il a été montré que dans ce couplage neurométabolique, un rôle central est joué par les astrocytes. Ces cellules fournissent le lactate, un substrat métabolique, aux neurones de manière adaptée à leur activité glutamatergique. Plus précisément, le glutamate libéré dans la fente synaptique par les neurones, est récupéré par les astrocytes et déclenche ainsi une cascade d'événements intracellulaires qui conduit à la production et libération de lactate. Les travaux de cette thèse ont visé à étudier la relation métabolique et fonctionnelle entre neurones et astrocytes, avec une attention particulière pour des rôles que pourrait avoir le lactate au-delà de sa fonction métabolique. Pour étudier les aspects spatio-temporels de ces interactions dynamiques, nous avons utilisé à la fois la microscopie optique associée à des indicateurs fluorescents spécifiques, ainsi que l'électrophysiologie. Dans la première partie de cette thèse, nous montrons que le lactate diminue l'activité neuronale spontanée de façon concentration-dépendante et indépendamment de son métabolisme. Nous avons identifié l'implication d'un récepteur neuronal au lactate qui sous-tend ce mécanisme de régulation. La découverte de cette signalisation via le lactate constitue un mode d'interaction supplémentaire et nouveau entre neurones et astrocytes. Dans la deuxième partie, nous avons caractérisé un outil pharmacologique, un inhibiteur des transporteurs du glutamate à haute affinité. Le but de cette étude était d'obtenir un agent pharmacologique capable d'interrompre spécifiquement le signal médié par le glutamate entre neurones et astrocytes pouvant permettre de mieux comprendre leur relation. En conclusion, ces études ont une implication non seulement pour la compréhension de la coopération entre neurones et astrocytes mais aussi dans le contexte de la modulation de l'activité neuronale par les cellules gliales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente une réflexion sur le développement de l'identité de soi chez l'enfant. Nous étudions pour cela le développement de l'autobiographie, la façon dont l'enfant apprend à raconter qui " il " est. Les narrations autobiographiques apparaissent tôt dans le développement dans une forme linguistique même rudimentaire, et sont produites notamment lorsque l'enfant a vécu une expérience émotionnellement chargée. La narration autobiographique permet d'intégrer le divers de l'expérience en un tout cohérent, selon la perspective du narrateur, et de donner sens aux événements vécus en les organisant en fonction d'un agent, d'une action, d'un temps et d'un lieu. La sélection des événements à raconter et la valeur à leur donner résultent d'un apprentissage social, réalisé en premier lieu dans la famille, qui va à long terme modéliser la façon dont l'enfant se raconte. Des exemples d'interactions narratives mère-enfant illustrant cet apprentissage sont présentés. A contrario, le conflit familial peut menacer cette intégration ; différentes formes de conflit et leurs conséquences possibles sur le développement de l'autobiographie sont évoquées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent ouvrage s'inscrit dans le domaine de l'histoire comparée des religions, et porte sur le rôle joué par les pratiques d'hospitalité dans le développement d'un mouvement religieux. L'idée centrale réside dans l'observation que les pratiques individuelles de l'hospitalité, bien qu'apparemment banales, relèvent d'enjeux sociaux majeurs, et sont susceptibles de nous renseigner sur l'organisation d'une société. Parallèlement, le travail effectue une évaluation critique de la catégorie même d'« hospitalité », des conceptions qui lui sont associées dans le langage courant, et de la possibilité de son emploi comme catégorie transculturelle. Deux cas, issus de cultures historiquement et géographiquement disjointes, sont étudiés de manière indépendante au travers de textes déterminés, avant d'être contrastés dans une partie récapitulative. Les deux contextes choisis pour cette étude sont le judaïsme rabbinique et la tradition indienne brahmanique. La démarche a consisté à définir des ensembles de textes, à repérer les passages traitant de l'hospitalité, et à les classer en tenant compte du document au sein duquel ils apparaissent, du type d'hospitalité qui y est présenté, et des protagonistes qui y sont impliqués. Ces textes ne représentent certes pas la réalité historique, mais nous informent sur l'idéal que leurs rédacteurs appelaient de leurs voeux. Dans le cas rabbinique, les textes défendent de manière quasiment unanime l'idée que l'hospitalité (hakhnasat ha-orechin / ´akhsanya) est une valeur importante - une idée qui n'apparaît pas sous cette forme dans le corpus biblique. Les modalités de l'hospitalité varient cependant selon les situations, abondamment discutées au sein des textes. Par exemple, les implications d'accueillir un invité « païen » ou d'être invité par lui diffèrent considérablement, la première situation étant évidemment moins problématique que la seconde. Plusieurs raisons (régime alimentaire, pureté) compliquent aussi l'idéal de réciprocité. Dans les textes du brahmanisme, l'hospitalité (àtithya) se charge d'une signification particulière, rituelle, quand elle s'adresse à un membre de l'« élite religieuse » (brahmane, sage, etc.) : elle devient un « sacrifice domestique », intégré au complexe rituel des māhayajña, les « grands sacrifices » quotidiens. Les textes sont moins prolixes quant à l'hospitalité dispensée à un non-brahmane. Il s'agit au mieux d'une possibilité. D'une manière générale, le déroulement de l'hospitalité varie très fortement en fonction de l'identité de l'invité. Le travail se conclut sur trois volets distincts : (1) un essai de comparaison des processus historiques se trouvant en filigrane des textes, en revenant notamment sur les fonctions symboliques prises en charge par l'hospitalité au sein des deux contextes ; (2) une réflexion sur les pratiques mêmes de l'hospitalité et leur signification sociale ; (3) un retour critique, enfin, sur quelques catégories transculturelles employées dans le travail et leur héritage conceptuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARYIn the context of the biodiversity crisis, amphibians are experiencing the most severe worldwide decline of all vertebrates and are in urgent need of better management. Efficient conservation strategies rely on sound knowledge of the species biology and of the genetic and demographic processes that might impair their welfare. Nonetheless, these processes are poorly understood in amphibians. Delineating population boundaries remains consequently problematic for these species, while it is of critical importance to define adequate management units for conservation. In this study, our attention focused on the alpine salamander (Salamandra atra), a species that deserves much interest in terms of both conservation biology and evolution. This endemic alpine species shows peculiar life-history traits (viviparity, reduced activity period, slow maturation) and has a slow population turnover, which might be problematic for its persistence in a changing environment. Due to its elusive behaviour (individuals spend most of their time underground and are unavailable for sampling), dynamic processes of gene and individuals were poorly understood for that species. Consequently, its conservation status could hardly be reliably assessed. Similarly the fire salamander (Salamandra salamandra) also poses special challenges for conservation, as no clear demarcation of geographical populations exists and dispersal patterns are poorly known. Through a phylogeographic analysis, we first studied the evolutionary history of the alpine salamander to better document the distribution of the genetic diversity along its geographical range. This study highlighted the presence of multiple divergent lineages in Italy together with a clear genetic divergence between populations from Northern and Dinaric Alps. These signs of cryptic genetic differentiation, which are not accounted for by the current taxonomy of the species, should not be neglected for further definition of conservation units. In addition, our data supported glacial survival of the species in northern peripheral glacial réfugia and nunataks, a pattern rarely documented for long-lived species. Then, we evaluated the level of gene flow between populations at the local scale and tested for asymmetries in male versus female dispersal using both field-based (mark-recapture) and genetic approaches. This study revealed high level of gene flow between populations, which stems mainly from male dispersal. This corroborated the idea that salamanders are much better dispersers than hitherto thought and provided a well- supported example of male-biased dispersal in amphibians. In a third step, based on a mark- recapture survey, we addressed the problem of sampling unavailability in alpine salamanders and evaluated its impact on two monitoring methods. We showed that about three quarters of individuals were unavailable for sampling during sampling sessions, a proportion that can vary with climatic conditions. If not taken into account, these complexities would result in false assumptions on population trends and misdirect conservation efforts. Finally, regarding the daunting task of delineating management units, our attention was drawn on the fire salamander. We conducted a local population genetic study that revealed high levels of gene flow among sampling sites. Management units for this species should consequently be large. Interestingly, despite the presence of several landscape features often reported to act as barriers, genetic breaks occurred at unexpected places. This suggests that landscape features may rather have idiosyncratic effects on population structure. In conclusion, this work brought new insights on both genetic and demographic processes occurring in salamanders. The results suggest that some biological paradigms should be taken with caution when particular species are in focus. Species- specific studies remain thus fundamental for a better understanding of species evolution and conservation, particularly in the context of current global changes.RESUMEDans le contexte de la crise de la biodiversité actuelle, les amphibiens subissent le déclin le plus important de tous les vertébrés et ont urgemment besoin d'une meilleure protection. L'établissement de stratégies de conservation efficaces repose sur des connaissances solides de la biologie des espèces et des processus génétiques et démographiques pouvant menacer leur survie. Ces processus sont néanmoins encore peu étudiés chez les amphibiens.Dans cette étude, notre attention s'est portée sur la salamandre noire (Salamandra atra), une espèce endémique des Alpes dont les traits d'histoire de vie atypiques (viviparité, phase d'activité réduite, lent turnover des populations) pourraient la rendre très vulnérable face aux changements environnementaux. Par ailleurs, en raison de son comportement cryptique (les individus passent la plupart de leur temps sous terre) la dynamique des gènes et des individus est mal comprise chez cette espèce. Il est donc difficile d'évaluer son statut de conservation de manière fiable. La salamandre tachetée {Salamandra salamandra), pour qui il n'existe aucune démarcation géographique apparente des populations, pose également des problèmes en termes de gestion. Dans un premier temps, nous avons étudié l'histoire évolutive de la salamandre noire afin de mieux décrire la distribution de sa diversité génétique au sein de son aire géographique. Cela a permis de mettre en évidence la présence de multiples lignées en Italie, ainsi qu'une nette divergence entre les populations du nord des Alpes et des Alpes dinariques. Ces résultats seront à prendre en compte lorsqu'il s'agira de définir des unités de conservation pour cette espèce. D'autre part, nos données soutiennent l'hypothèse d'une survie glaciaire dans des refuges nordiques périglaciaires ou dans des nunataks, fait rarement documenté pour une espèce longévive. Nous avons ensuite évalué la différentiation génétique des populations à l'échelle locale, ce qui a révélé d'important flux de gènes, ainsi qu'une asymétrie de dispersion en faveur des mâles. Ces résultats corroborent l'idée que les amphibiens dispersent mieux que ce que l'on pensait, et fournissent un exemple robuste de dispersion biaisée en faveur des mâles chez les amphibiens. Nous avons ensuite abordé le problème de Γ inaccessibilité des individus à la capture. Nous avons montré qu'environ trois quarts des individus sont inaccessibles lors des échantillonnages, une proportion qui peut varier en fonction des conditions climatiques. Ignoré, ce processus pourrait entraîner une mauvaise interprétation des fluctuations de populations ainsi qu'une mauvaise allocation des efforts de conservation. Concernant la définition d'unités de gestion pour la salamandre tachetée, nous avons pu mettre en évidence un flux de gènes important entre les sites échantillonnés. Les unités de gestion pour cette espèce devraient donc être étendues. Etonnamment, malgré la présence de nombreuses barrières potentielles au flux de gènes, les démarcations génétiques sont apparues à des endroits inattendus. En conclusion, ce travail a apporté une meilleure compréhension des processus génétiques et démographiques en action chez les salamandres. Les résultats suggèrent que certains paradigmes biologiques devraient être considérés avec précaution quand il s'agit de les appliquer à des espèces particulières. Les études spécifiques demeurent donc fondamentales pour une meilleure compréhension de l'évolution des espèces et leur conservation, tout particulièrement dans le contexte des changements globaux actuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

2. Plan du travail Pour atteindre nos objectifs, notre travail sera essentiellement divisé en trois grandes sections. La première partie nous sert principalement à esquisser notre démarche et les enjeux de notre entreprise, ainsi qu'à la situer au sein d'un cadre théorique - la linguistique interactionnelle - combinant l'analyse grammaticale et l'analyse conversationnelle. Nous procéderons d'abord à une brève description de l'analyse conversationnelle ethnométhodologique, ensuite à celle du courant Interaction and Grammar. Dans le cadre de ces descriptions, nous illustrerons par des exemples les liens entre la grammaire et l'interaction sociale tels qu'ils ont été élaborés dans de nombreuses recherches dans le domaine. Finalement, nous résumerons nos objectifs et nos procédures d'analyse. La deuxième partie consiste essentiellement en une discussion et une problématisation de l'état de la recherche dans la littérature. L'exposé montrera les principaux problèmes que la pseudo-clivée pose aux différents niveaux d'analyse. Nous y traiterons des problèmes de définition et de délimitation de la construction en question au niveau syntaxique et sémantique. Nous enchaînerons avec l'exposé de l'état de la recherche au niveau pragmatique et discursif Cette discussion nous permettra de problématiser à la fois la fonction principale dévolue à la pseudo-clivée et l'établissement de la relation entre forme et fonction. Finalement, nous aborderons certains aspects dont nous ne nous occuperons pas ou seulement partiellement dans notre travail. Le résumé de cette deuxième partie nous servira à récapituler les problèmes soulevés par la pseudo-clivée française. La troisième partie - empirique et analytique - constitue la partie centrale de ce travail. Elle exposera nos résultats à travers l'analyse d'exemples qui exhibent les propriétés typiques des occurrences retenues dans notre corpus. Cette partie est donc consacrée aux formes, aux fonctionnements syntaxico-séquentiels et aux fonctions effectivement rencontrées dans nos données pour aboutir à une description de ses propriétés interactives et à une typologie compatible avec les usages interactifs réels. Après l'exposé de ce qui nous semble le plus typique dans l'usage interactif effectif de la pseudo-clivée par les interlocuteurs, nous nous dirigerons plus particulièrement vers la délimitation et la localisation de notre objet d'analyse, d'une part, par rapport à d'autres constructions (clivées, pseudo-clivées inversées, dislocations à gauche), et d'autre part, par rapport à d'autres unions d'unités qui n'ont pas le statut de construction en usage. Finalement, nous tenterons d'intégrer nos observations dans une description cohérente du "phénomène pseudo-clivé" dans l'usage des locuteurs. De plus, nous présenterons - sur la base de nos résultats - des réponses ou des éléments de réponse aux problématiques soulevées par notre objet d'analyse telles que nous les avons élaborées et discutées dans la partie II de ce travail. Nous terminerons par une discussion sur les apports de notre démarche, ainsi qu'à une évaluation de notre conception spécifique des faits de grammaire, et plus particulièrement d'une construction syntaxique (partie IV). Nous indiquerons des pistes de recherche possibles à suivre en fonction de nos résultats. Parmi d'éventuelles investigations futures, un accent particulier sera mis sur les aspects prosodiques et la recherche comparative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contrairement aux idées reçues, l'esthétique assume bien une fonction dans les formes rituelles adoptées par les Eglises issues de la Réforme calviniste. Mais il revient moins à l'image, considérée avant tout comme une source de distraction, qu'à la musique de porter cette dimension dans la piété réformée. Retraçant la formation de la pensée calvinienne sur la question des rapports entre culte et musique entre 1536 et 1543, cette étude montre comment le théologien en vient durant ces années à considérer que le chant des psaumes permet de concilier dans la dévotion, un processus cognitif, guidé par le sens des paroles, et un mouvement affectif, suscité par la mélodie. C'est, aux yeux de Calvin, de la jonction de ces deux dynamiques que naît l'élévation spirituelle à laquelle le culte doit conduire. Notwithstanding common belief, aesthetics had an important function in ritual forms implemented by Reformed Calvinist Churches. The impact of aesthetics on reformed piety rested less on images, considered to be a source of distraction, than on music. By reconsidering the evolution of Calvin's thoughts on the relationship between music and religious services between 1536 and 1543, this study reveals how Calvin came to consider that by singing the psalms, Christians could conciliate in prayer a cognitive process which was to be guided by both the meaning of the words and the emotions triggered by the tune. For Calvin, the spiritual elevation to which religious services should lead was to emerge from the conjunction of these two impetuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contrairement à ce que prônent les auteurs des « discours d'accompagnement » de l'Internet, les échanges par courriel sont souvent médiatisés. C'est du moins ce que l'on observe dans les cybercafés de Bamako, au Mali, où de nombreux acteurs prennent place entre les clients de ces établissements et leurs correspondants. Cet article vise à présenter le profil de ces intermédiaires, leur place dans les réseaux transnationaux et à inventorier les « capitaux » - sociaux, symboliques et économiques - que cette fonction leur confère. Car, en interprétant ce rôle de « passeur », ces intermédiaires se positionnent comme des acteurs incontournables. Cependant, les bénéfices obtenus ne sont pas forcément ceux auxquels on pourrait s'attendre : les capitaux symboliques tendent, en effet, à l'emporter sur les gains sociaux.