1000 resultados para modèle linéaire généralisé
Resumo:
ABSTRACTA significant share of deliveries are performed by Cesarian section (C-section) in Europe and in many developed and developing countries. The aims of this thesis are to highlight the non medical, especially economic and financial, incentives that explain the use of C-section, as well as the medical consequences of C-section on women's health, in regard with other factors of ob¬stetrical care quality such as hospital concentration. Those diagnoses enable us to exhibit ways of improvement of obstetrical care quality in France. Our analysis focus on two countries, France and Switzerland. In the first part of the thesis, we show the influence of two non medical factors on the C-section use, namely the hospital payment system on the one hand and the obstetricians behaviour, especially their demand for leisure, on the other hand. With French data on the year 2003, we show firstly that the fee-for-service payment system of private for profit hospitals induces a higher probability of using C-section. Obstetricians play also a preeminent role in the decision to use a C-section, as the probability of a C-section rises with the number of obstetricians. We then focus on a French reform introduced in 2004, to investigate the impact of Prospective Payment System on obstetric practise. We show that the rise of C-section rate between 2003 and 2006 is mainly caused by changes in hospitals and patients features. Obstetricians practises do not vary a lot for patients with the same risk code. In the mean time however, the number of women coded with a high risk rises. This can be caused by improvements in the quality of coding, obstetricians chosing codes that match better the real health state of their patients. Yet, it can also show that obstetricians change their coding practises to justify the use of certain practises, such as C-section, with no regard to the health state of patients. Financial factors are not the only non medical fac¬tors that can influence the resort to C-section. Using Shelton Brown ΠΙ identification strategy, we focus on the potential impact of obstetricians leisure preference on the use of C-section. We use the distributions of days and hours of delivering and the types of C-section - planned or emergency C-sections - to show that the obstetricians demand for leisure has a significant impact on the resort to C-section, but only in emergency situations. The second part of the thesis deals with some ways to improve obstetric care quality. We use on the one hand swiss and french data to study the impact of C-section on the patients' probability of having an obstetric complication and on the other hand the influence of hospital concentration on the quality of obstetric care. We find the same results as former medical studies about the risks entailed by C-section on obstetric complications.These results prove women ought to be better informed of the medical consequences of C-section and that the slowing of C-section use should be a priority of public health policy. We finally focus on another way to improve obstetric care quality, that is hospital lmarket concentration. We investigate the impact of hospital concentration by integrating the Herfindahl-Hirschman index in our model, on health care quality, measured by the HCUP indicator. We find that hospital concentration has a negative impact on obstetric care quality, which undermines today's policy of hospital closings in France.JEL classification: 112; 118Keywords: Hospital; C-section; Payment System; Counterfactual Estimation; Quality of Care.RÉSUMÉUne part importante des accouchements sont réalisés par césarienne en Europe et dans de nom¬breux pays développés ou en développement. Les objectifs de cette thèse sont de mettre en évidence les déterminants non médicaux, notamment économiques et financiers, expliquant le développe¬ment de cette pratique, ainsi que ses conséquences sur la santé des femmes après Γ accouchement, en lien avec d'autres facteurs comme la concentration locale des structures hospitalières. Les résul¬tats exposés dans cette thèse éclairent les perspectives et voies d'amélioration de la qualité des soins en obstétriques.Notre analyse se concentre sur deux pays : la France et la Suisse. Dans la première partie de la thèse, nous mettons en évidence l'influence de deux déterminants non médicaux sur l'emploi de la césarienne : le système de paiement des hôpitaux d'une part, et le comportement des médecins obstétriciens d'autre part. En étudiant des données françaises de 2003, nous montrons d'abord que le financement à l'acte des établissements privés engendre une hausse de la proba¬bilité de pratiquer une césarienne. Le rôle de l'obstrétricien paraît également déterminant dans la décision d'opérer une césarienne, la probabilité d'employer cette technique augmentant avec le nombre d'obstétriciens. Nous nous intéressons ensuite à l'impact de la mise en place en 2004 du système de paiement prospectif sur l'évolution des pratiques obstétricales entre 2003 et 2006 en France. La hausse du taux de recours à la césarienne entre 2004 et 2006 peut ainsi être principa¬lement imputée aux évolutions des caractéristiques des hôpitaux et des patients, les pratiques des obstétriciens, pour un même codage de la situation du patient, variant peu. Dans le même temps cependant, les pratiques de codage des patients parles obstétriciens évoluent fortement, les femmes étant de plus en plus nombreuses à porter des codes correspondant à des situations à risques. Cette évolution peut indiquer que la qualité du codage en 2006 s'est améliorée par rapport à 2004, le codage correspondant de plus en plus à la situation réelle des patientes. H peut aussi indiquer que les pratiques de codage évoluent pour justifier un recours accru à la césarienne, sans lien avec l'état réel des patientes. Les facteurs financiers ne sont pas les seuls facteurs non médicaux à pouvoir expliquer le recours à la césarienne : nous nous intéressons, en suivant la stratégie d'identifica¬tion de Shelton Brown m, à l'impact potentiel de la demande de loisir des médecins obstétriciens sur la pratique de la césarienne. En utilisant la distribution des jours et heures d'accouchement, et en distinguant les césariennes planifiées de celles effectuées en urgence, nous constatons que la demande de loisir des obstétriciens influence significativement le recours à la césarienne, mais uni¬quement pour les interventions d'urgence. La deuxième partie de la thèse est consacrée à l'étude de la qualité des soins en obstétriques. Nous utilisons des données suisses et françaises pour analyser d'une part l'impact de la césarienne sur la survenue de complications obstétricales et d'autre part l'impact de la concentration des soins sur la qualité des soins en obstétrique. Nons confirmons les résultats antérieurs de la littérature médicale sur la dangerosité de la césarienne comme facteur de complications obstétricales. Ces conclusions montrent que les femmes ont besoin d'être informées des conséquences de la césarienne sur leur santé et que le ralentissement de l'augmentation de la pratique de la césarienne devrait être un objectif de la politique publique de santé. Nous nous in¬téressons à un autre facteur d'amélioration des soins en obstrétique, l'organisation des hôpitaux et particulièrement leur concentration. Nous estimons ainsi l'effet de la concentration sur la qualité des soins obstétriques en intégrant l'indice de Herfindahl-Hirschman dans notre modèle, la qualité des soins étant mesurée à l'aide de l'indicateur HCUP. Nous constatons que la concentration des naissances a un impact négatif sur la qualité des soins en obstétrique, résultat qui va dans le sens contraire des politiques de fermeture d'hôpitaux menées actuellement en France. JEL classification : 112 ; 118Mots-clés : Hôpital ; Césarienne ; Système de paiement ; Contrefactuels ; Qualité des soins, sur la qualité des soins en obstétrique.
Resumo:
L'éthicien Denis Müller présente ici une généalogie, une critique et une reconstruction théologique de l'éthique protestante. Dans un premier moment, l'auteur réfléchit à la transformation considérable qui semble affecter aujourd'hui la situation de l'éthique théologique. Dans un deuxième temps est abordée la problématique de la post-modernité dans sa dynamique de déconstruction qui affecte évidemment les modèles éthiques antérieurs. Dans une troisième partie, coeur de l'ouvrage, Denis Müller propose un modèle de reconstruction de l'éthique théologique où sont abordées des questions centrales pour toute sensibilité protestante et chrétienne: la tradition, la signification de l'herméneutique, l'usage de la Bible.
Resumo:
Contexte¦- Les métastases hépatiques hypovasculaires sont parfois difficile à détecter car très polymorphiques et fréquemment irrégulières. Leurs contrastes sur CT scan hépatique sont souvent faibles.¦- Lors d'un diagnostic, le radiologue ne fixe pas sa vision fovéale sur chaque pixel de l'image. Les expériences de psychophysique avec eye-tracker montrent en effet que le radiologue se concentre sur quelques points spécifiques de l'image appelés fixations. Dans ce travail, nous nous intéresserons aux capacités de détection de l'oeil lorsque l'observateur effectue une saccade entre deux points de fixation. Plus particulièrement, nous nous intéresserons à caractériser les capacités de l'oeil à détecter les signaux se trouvant en dehors de sa vision fovéale, dans ce qu'on appelle, la vision périphérique.¦Objectifs¦- Caractériser l'effet de l'excentricité de la vision sur la détectabilité des contrastes dans le cas de métastases hépatiques hypovasculaires.¦- Récolter des données expérimentales en vue de créer un modèle mathématique qui permettra, à terme, de qualifier le système d'imagerie.¦- → objectifs du TM en soit :¦o prendre en main l'eyetracker¦o traduire une problématique médicale en une expérience scientifique reproductible, quantifiable et qualifiable.¦Méthode¦Nous effectuons une expérience 2AFC (2 Alternative Forced-Choice experiment) afin d'estimer la détectabilité du signal. Pour cela, nous forcerons l'observateur à maintenir son point de fixation à un endroit défini et vérifié par l'eye-tracker. La position del'excentricité du signal tumoral généré sur une coupe de CT hépatique sera le paramètre varié. L'observateur se verra présenté tour à tour deux coupes de CT hépatique, l'une comportant le signal tumoral standardisé et l'autre ne comportant pas le signal. L'observateur devra déterminer quelle image contient la pathologie avec la plus grande probabilité.¦- Cette expérience est un modèle simplifié de la réalité. En effet, le radiologue ne fixe pas un seul point lors de sa recherche mais effectue un "scanpath". Une seconde expérience, dite en free search sera effectuée dans la mesure du temps à disposition. Lors de cette expérience, le signal standardisé sera connu de l'observateur et il n'y aura plus de point de fixation forcée. L'eyetracker suivra le scanpath effectué par l'oeil de l'observateur lors de la recherche du signal sur une coupe de CT scan hépatique. L'intérêt de cette expérience réside dans l'observation de la corrélation entre les saccades et la découverte du signal. Elle permet aussi de vérifier les résultats obtenus lors de la première expérience.¦Résultats escomptés¦- Exp1 : Quantifier l'importance de l'excentricité en radiologie et aider à améliorer la performance de recherche.¦- Exp 2 : tester la validité des résultats obtenus par la première expérience.¦Plus value escomptée¦- Récolte de données pour créer un modèle mathématique capable de déterminer la qualité de l'image radiologique.¦- Possibilité d'extension à la recherche dans les trois dimensions du CT scan hépatique.
Resumo:
Abstract: The increasingly high hygienic standards characterizing westernized societies correlate with an increasingly high prevalence of allergic disease. Initially based on these observations, the hygiene hypothesis postulates that reduced microbial stimulation during infancy impairs the immune system development and increases the risk of allergy. Moreover, there is increasing evidence that the crosstalk existing between the intestine and the resident microbiota is crucial for gut homeostasis. In particular, bacterial colonization of the gut affects the integrity of the gut barrier and stimulates the development of the gut associated immune tissue, both phenomena being essential for the immune system to mount a controlled response to food antigens. Therefore, alterations in the microbial colonization process, by compromising the barrier homeostasis, may increase the risk of food allergy. In this context, antibiotic treatment, frequently prescribed during infancy, affects gut colonization by bacteria. However, little is known about the impact of alterations in the colonization process on the maturation of the gut barrier and on the immunological response to oral antigens. The objective of this work was to determine the impact of a commercial antibiotic preparation employed in pediatric settings on the gut barrier status at the critical period of the suckling/weaning transition and to evaluate the physiological consequences of this treatment in terms of immune response to food antigens. We established an antibiotic-treated suckling rat model relevant to the pediatric population in terms of type, dose and route of administration of the antibiotic and of changes in the patterns of microbial colonization. Oral tolerance to a novel luminal antigen (ovalbumin) was impaired when the antigen was introduced during antibiotic treatment. These results paralleled to alterations in the intestinal permeability to macromolecules and reduced intestinal expression of genes coding for the major histocomptatibility complex II molecules, which suggest a reduced capacity of antigen handling and presentation in the intestine of the antibiotic-treated animals. In addition, low luminal IgA levels and reduced intestinal expression of genes coding for antimicrobial proteins suggest that protection against pathogens was reduced under antibiotic treatment. In conclusion, we observed in suckling rats that treatment with abroad-spectrum antibiotic commonly used in pediatric practices reduced the capacity of the immune system to develop tolerance. The impact of the antibiotic treatment on the immune response to the antigen-was likely mediated by the alterations of the gut microbiota, through impairment in the mechanisms of antigen handling and presentation. This work reinforces the body of data supporting a key role of the intestinal microbiota modulating the risk of allergy development and leads us to propose that the introduction of new food antigens should be avoided during antibiotic treatment in infants. Résumé: L'augmentation du niveau d'hygiène caractérisant les sociétés occidentales semble être fortement corrélée avec l'augmentation des cas d'allergie dans ces pays. De cette observation est née l'hypothèse qu'une diminution des stimuli microbiens pendant l'enfance modifie le développement du système immunitaire augmentant ainsi le risque d'allergie. En ce sens, un nombre croissant de données indiquent que les interactions existant entre l'intestin et les bactéries résidantes sont cruciales pour l'équilibre du système. En effet, la présence de bactéries dans l'intestin affecte l'intégrité de sa fonction de barrière et stimule le développement du système immunitaire intestinal. Ces deux paramètres étant essentiels à la mise en place d'une réponse contrôlée vis à vis d'un antigène reçu oralement, toute modification du processus naturel de colonisation compromettant l'équilibre intestinal pourrait augmenter le risque d'allergie. Les traitements aux antibiotiques, fréquemment prescrits en pédiatrie, modifient de façon conséquente le processus de colonisation bactérienne. Cependant peu de données existent concernant l'impact d'une altération du processus de colonisation sur la maturation de la barrière intestinale et de la réponse immunitaire dirigée contre un antigène. L'objectif de ce travail était de déterminer l'impact d'un antibiotique commercial et employé en pédiatrie sur l'état de la barrière intestinale au moment critique du sevrage et d'évaluer les conséquences physiologiques d'un tel traitement sur la réponse immune à un antigène alimentaire. Nous avons mis en place un modèle de rats allaités, traités à l'antibiotique, le plus proche possible des pratiques pédiatriques, en terme de nature, dose et voie d'administration de l'antibiotique. Nous avons constaté que l'établissement de la tolérance orale à un nouvel antigène (l'ovalbumine) est altéré quand celui-ci est donné pour la première fois au cours du traitement antibiotique. Ces résultats coïncident avec une diminution de la perméabilité intestinale aux macromolécules, ainsi qu'avec une diminution de l'expression des gènes codant pour les molécules du complexe majeur d'histocomptatibilité de classe II, suggérant une modification de l'apprêtement et de la présentation de l'antigène au niveau intestinal chez les rats traités à l'antibiotique. De plus, un faible taux d'IgA et une diminution de l'expression des gènes codant pour des protéines antimicrobiennes, observés après l'administration d'antibiotique, laissent à penser que la protection contre un pathogène est diminuée lors d'un traitement antibiotique. En conclusion, nous avons observé qu'un traitement antibiotique à large spectre d'activité, couramment utilisé en pédiatrie, réduit la capacité d'induction de la tolérance orale chez le rat allaité. L'impact du traitement antibiotique sur la réponse immune semble induite par l'altération de la flore intestinale via son effet sur les mécanismes d'apprêtement et de présentation de l'antigène. Ce travail renforce l'ensemble des données existantes qui accorde à la flore intestinale un rôle clef dans la modulation du risque de développement d'allergie et nous amène à recommander d'éviter l'introduction d'un nouvel aliment lorsqu'un enfant est traité aux antibiotiques.
Une nouvelle facette du travail indépendant : les chômeurs créateurs d'entreprise : une étude de cas
Resumo:
Dans le monde social, la figure du chômeur créateur d'entreprise se voit réduite à une approche essentiellement économique qui se polarise entre d'un côté, une valorisation de la création d'entreprises individuelles présentée par les milieux économiques comme un outil efficace de relance de la croissance et de résolution de la question du chômage , et de l'autre, une dénonciation des risques financiers et des dangers sociaux encourus par les individus qui se lancent dans une telle démarche. Mais au final, que sait-on réellement de ces nouveaux indépendants, de leur situation, du sens qu'ils donnent à leur activité, bref de ce qu'ils peuvent vivre ? Leur émergence concorde-t-elle avec un nouveau choix de vie, un désir de conciliation entre projet de vie et projet professionnel, ou sommes-nous face à un nouveau visage de la précarité en lien avec le contexte de la crise de l'emploi ? Répondent-ils au slogan largement véhiculé par le discours économique et politique selon lequel « il faut devenir l'entrepreneur de sa propre vie » , expression d'un individualisme exacerbé et d'une volonté non dissimulée de responsabilisation des agents sociaux ? Enfin, ce nouveau type d'autoemploi représente-t-il une étape de transition vers la réinsertion dans la société salariale, ou l'émergence d'une évolution significative des comportements de travail et des significations qui lui sont attribuées? C'est à toutes ces questions que notre recherche tente de répondre. La figure du chômeur créateur émerge dans un environnement dominé par une logique qui ne cesse de promouvoir la figure de l'homo oeconomicus comme modèle à suivre . Il faut être libre, autonome, responsable, calculateur et entreprenant. Si en apparence, ces créateurs d'entreprise peuvent être assimilés à la figure de l'entrepreneur schumpeterien, sur les critères de la réponse qu'ils apportent à l'impératif d'individualisation et de responsabilisation, ils opèrent en réalité une subtile réappropriation de cette exigence en l'adaptant aux critères de l'épanouissement personnel. Unanimement satisfaits tant sur le plan des « attributs intrinsèques » qu' « extrinsèques » du travail, la majorité des créateurs rencontrés ne ressentent pas leur situation d'emploi comme précaire. Ils refusent par ailleurs avec force d'envisager un retour au salariat, même lorsque la santé de leur entreprise menace leur survie économique et leur emploi. Cette position à l'égard de la condition salariale trouve sa justification dans une primauté accordée aux valeurs épanouissantes de l'activité exercée, au détriment d'une quête de stabilité financière et professionnelle. Les dimensions de la liberté, de l'autonomie et de la maîtrise des conditions de travail sont des composantes essentielles à la compréhension du désir de se maintenir dans l'activité indépendante. Dans la construction de ce modèle de travail et dans la relation entretenue à la nouvelle modalité d'emploi, ce n'est pas tant le passage par le chômage, mais bien plus l'expérience salariale antérieure, qui entre en jeu de manière significative. Les bouleversements dans la hiérarchie des valeurs de ces travailleurs sont ainsi peut-être le signe d'une évolution des comportements face à la condition salariale. L'attachement presque inconditionnel des répondants à leur nouveau statut, combiné à un refus catégorique d'envisager un retour au salariat, peut faire l'objet d'une interprétation en termes de détachement par rapport à la norme fordiste, laquelle perdure encore comme principale référence normative, au sein d'une majorité de travailleurs, malgré une application de plus en plus compromise. Par conséquent, l'attitude des chômeurs créateurs témoignerait d'une transition initiée entre un modèle d'emploi devenu obsolète et la construction d'une pluralité de modèles davantage élaborés sur la base de critères individuels.
Resumo:
Résumé Identification, localisation et activation des cellules souches hématopoiétiques dormantes in vivo Les cellules souches somatiques sont présentes dans la majorité des tissus régénératifs comme la peau, l'épithélium intestinal et le système hématopoiétique. A partir d'une seule cellule, elles ont les capacités de produire d'autres cellules souches du même type (auto-renouvellement) et d'engendrer un ensemble défini de cellules progénitrices différenciées qui vont maintenir ou réparer leur tissu hôte. Les cellules souches adultes les mieux caractérisées sont les cellules souches hématopoiétiques (HSC), localisées dans la moelle osseuse. Un des buts de mon travail de doctorat était de caractériser plus en profondeur la localisation des HSCs endogènes in vivo. Pour ce faire, la technique "label retaining assay", se basant sur la division peu fréquentes et sur la dormance des cellules souches, a été utilisée. Après un marquage des souris avec du BrdU (analogue à l'ADN) suivi d'une longue période sans BrdU, les cellules ayant incorporés le marquage ("label retaining cells" LCRs) ont pu être identifiées dans la moelle osseuse. Ces cellules LCRs étaient enrichies 300 fois en cellules de phenotype HSC et, en utilisant de la cytofluorométrie, il a pu être montré qu'environ 15% de toutes les HSCs d'une souris restent dormantes durant plusieures semaines. Ces HSCs dormantes à long terme ne sont probablement pas impliquées dans la maintenance de 'hématopoièse. Par contre, on assiste à l'activation rapide de ces HSCs dormantes lors d'une blessure, comme une ablation myéloide. Elles re-entrent alors en cycle cellulaire et sont essentielles pour une génération rapide des cellules progénitrices et matures qui vont remplacer les cellules perdues. De plus, la détection des LCRs, combinée avec l'utilisation du marqueur de HSCs c-kit, peut être utilisée pour la localisation des HSCs dormantes présentes dans la paroi endostéale de la cavité osseuse. De manière surprenante, les LCRs c-kit+ ont surtout étés trouvées isolées en cellule unique, suggérant que le micro-environement spécifique entourant et maintenant les HSCs, appelé niche, pourrait être très réduit et abriter une seule HSC par niche. Rôles complexes du gène supresseur de tumeur Pten dans le système hématopoiétique La phosphatase PTEN disparaît dans certains cancers héréditaires ou sporadiques humains, comme les gliomes, les cancers de l'utérus ou du sein. Pten inhibe la voie de signalisation de la PI3-kinase et joue un rôle clé dans l'apoptose, la croissance, la prolifération et la migration cellulaire. Notre but était d'étudier le rôle de Pten dans les HSC normale et durant la formation de leucémies. Pour ce faire, nous avons généré un modèle murin dans lequel le gène Pten peut être supprimé dans les cellules hématopoiétiques, incluant les HSCs. Ceci a été possible en croissant l'allèle conditionnelle ptenflox soit avec le transgène MxCre inductible par l'interféron α soit avec le transgène Scl-CreERt inductible par le tamoxifen. Ceci permet la conversion de l'allèle ptenflox en l'allèle nul PtenΔ dans les HSCs et les autres types cellulaires hématopoiétiques. Les souris mutantes Pten développent une splénomégalie massive causée par une expansion dramatiques de toutes les cellules myéloides. De manière interessante, alors que le nombre de HSCs dans la moelle osseuse diminue progressivement, le nombre des HSCs dans la rate augmente de manière proportionnelle. Etrangement, les analyses de cycle cellulaire ont montrés que Pten n'avait que peu ou pas d'effet sur la dormance des HSCs ou sur leur autorenouvellement. En revanche, une augmentation massive du niveau de la cytokine de mobilisation G-CSF a été détéctée dans le serum sanguin, suggérant que la suppression de Pten stimulerait la mobilisation et la migration des HSC de la moelle osseuse vers la rate. Finallement, la transplantation de moelle osseuse délétée en Pten dans des souris immuno-déficientes montre que Pten fonctionnerait comme un suppresseur de tumeur dans le système hématopoiétique car son absence entraîne la formation rapide de leucémies lymphocytaires. Summary Identification, localization and activation of dormant hematopoietic stun cells in vivo Somatic stem cells are present in most self-renewing tissues including the skin, the intestinal epithelium and the hematopoietic system. On a single cell basis they have the capacity to produce more stem cells of the same phenotype (self-renewal) and to give rise to a defined set of mature differentiated progeny, responsible for the maintenance or repair of the host tissue. The best characterized adult stem cell is the hematopoietic stem cell (HSC) located in the bone marrow. One goal of my thesis work was to further characterize the location of endogenous HSCs in vivo. To do this, a technique called "label retaining assay» was used which takes advantage of the fact that stem cells (including HSCs) divide very infrequently and can be dormant for months. After labeling mice with the DNA analogue BrdU followed by a long BrdU free "chase", BrdU "label retaining cells" (CRCs) could be identified in the bone marrow. These CRCs were 300-fold enriched for phenotypic HSCs and by using flow cytometry analysis it could be shown that about 15% of all HSCs in the mouse are dormant for many weeks. Our results suggest that these long-term dormant HSCs are unlikely to be involved in homeostatic maintenance. However they are rapidly activated and reenter the cell cycle in response to injury signals such as myeloid ablation. In addition, detection of LRCs in combination with the HSC marker c-Kit could be used to locate engrafted dormant HSCs close to the endosteal lining of the bone marrow cavities. Most surprisingly, c-Kit+LRCs were found predominantly as single cells suggesting that the specific stem cell maintaining microenvironment, called niche, has limited space and may house only single HSCs. Complex roles of the tumor suppressor gene Pten in the hematopoietic system. The phosphatase PTEN is lost in hereditary and sporadic forms of human cancers, including gliomas, endometrial and breast cancers. Pten inhibits the PI3-kina.se pathway and plays a key role in apoptosis, cell growth, proliferation and migration. Our aim was to study the role of Pten in normal HSCs and during leukemia formation. To do this, we generated a mouse model in which the Pten gene can be deleted in hematopoietic cells including HSCs. This was achieved by crossing the conditional ptenflox allele with either the interferona inducible MxCre or the tamoxifen inducible Scl-CreERT transgene. This allowed the conversion of the ptenflox allele into a pterr' null allele in HSCs and other hematopoietic cell types. As a result Pten mutant mice developed massive splenomegaly due to a dramatic expansion of all myeloid cells. Interestingly, while the number of bone marrow HSCs progressively decreased, the number of HSCs in the spleen increased to a similar extent. Unexpectedly, extensive cell cycle analysis showed that Pten had little or no effect on HSC dormancy or HSC self-renewal. Instead, dramatically increased levels of the mobilizing cytokine G-CSF were detected in the blood serum suggesting that loss-of Pten stimulates mobilization and migration of HSC from the BM to the spleen. Finally, transplantation of Pten deficient BM cells into immuno-compromised mice showed that Pten can function as a tumor suppressor in the hematopoietic system and that its absence leads to the rapid formation of T cell leukemia.
Efficacité du counseling d'orientation: impacts de l'alliance de travail et du contexte psychosocial
Resumo:
La problématique centrale de cette thèse de doctorat est l'efficacité de l'accompagnement à l'orientation. Elle renvoie en particulier à la multiplicité des types d'interventions ainsi qu'aux tensions entre les finalités de l'orientation qui rendent improbable une mesure univoque et objective de l'efficacité des pratiques. Le «mythe » de l'efficacité trouve notamment sa source dans le persistent monopole du modèle de l'appariement qui a largement influencé le développement de la discipline. Le manuscrit est basé sur deux études empiriques. Premièrement, « voies professionnelles » est une étude longitudinale visant l'évaluation de l'efficacité d'un service de counseling d'orientation au travers de mesures intraindividuelles. Les résultats immédiats (pre-post) indiquent une forte diminution de l'indécision vocationnelle des consultants ainsi qu'une augmentation de leur bien-être. Les résultats longitudinaux sur un an indiquent une évolution positive des difficultés plus ancrées ainsi qu'un fort taux d'implémentation des projets professionnels. La qualité de l'alliance de travail démontre un impact positif sur l'efficacité de la démarche. Deuxièmement, l'étude « orientation et genre » a permis de mettre en évidence un effet d'interaction entre le sexe et le niveau scolaire d'élèves en fin de scolarité sur leurs profils d'intérêts professionnels. Ce résultat affecte en particulier les jeunes filles dans une filière à exigences élémentaires car ces deux identités psychosociales semblent restreindre doublement les options professionnelles envisageables. Les deux études ont permis de soulever cinq implications centrales : (1) La distinction entre les aspects cognitifs et émotionnels de l'indécision vocationnelle est importante. En particulier, la préparation au choix est un construit qui nécessite clarification ; (2) Les processus de transitions professionnelles ainsi que leur accompagnement doivent être considérés dans leur dimension temporelle ; (3) L'interconnexion des différentes sphères de vie est centrale dans les processus d'orientation et leur accompagnement ; (4) L'efficacité du conseil en orientation est affectée par la qualité des aspects relationnels ; (5) La complexité des pratiques et de leurs finalités confronte l'orientation à son rôle envers des identités psychosociales fragilisées. - The central issue of this doctoral thesis is the effectiveness of career counseling and guidance. In particular, this refers to the many types of career interventions as well as the tensions between their objectives. Those aspects make it unlikely to get an unambiguous and objective measure of the effectiveness of career practices. The "myth of efficiency" is particularly rooted in the persistent monopoly of person-environment fit models, which greatly influenced the development of the discipline. This manuscript is based on two empirical studies. First, "career paths" is a longitudinal study looking at the effectiveness of a career counseling service through intraindividual measures. Pre-post impacts showed a significant decrease in clients' vocational indecision as well as a moderate increase in their well-being. The one year-longitudinal results highlighted significant decreases in more constant decision-making difficulties with a high proportion of clients having implemented their professional projects. The quality of the working alliance had a positive impact on the effectiveness of the intervention. The second study, "vocational development and gender" highlighted an interaction effect between late schoolchildren's gender and school level on their professional interests profile. This result particularly affected girls at a low school level, because these psychosocial identities were a double restraint in restricting career options. The two studies raised five central implications: (1) The distinction between cognitive and emotional aspects of vocational indecision is important. In particular, readiness to make a choice is a construct that requires clarification; (2) career transitions processes as well as supporting these transitions, should be considered in their temporal dimension (3) the interconnection of different spheres of life is central to vocational development and career guidance and counseling; (4) the effectiveness of career counseling is affected by the quality of the relational aspects in the intervention; (5) and the complexity of career interventions and their objectives forces practitioners to consider their role and responsibilities towards clients with marginalized psychosocial identities.
Resumo:
Natural environments are constantly challenged by the release of hydrophobic organic contaminants, which represent a threat for both the ecosystem and human health. Despite a substantial degradation by naturally occurring micro-organisms, a non negligible fraction of these pollutants tend to persist in soil and sediments due to their reduced accessibility to microbial degraders. This lack of 'bioavailability' is acknowledged as a key parameter for the natural and stimulated clean-up (bioremediation) of contaminated sites. We developed a bacterial bioreporter that responds to the presence of polyaromatic hydrocarbons (PAHs) by the production of the green fluorescent protein (GFP), based on the PAH-degrading bacterium Burkholderia sartisoli. We showed in this study that the bacterial biosensor B. sartisoli strain RP037 was faithfully reporting the degradation of naphthalene and phenanthrene (two PAHs of low molecular weight) via the production of GFP. What is more, the magnitude of GFP induction was influenced by change in the PAH flux triggered by a variety of physico-chemical parameters, such as the contact surface between the pollutant and the aqueous suspension. Further experiments permitted to test the influence of dissolved organic matter, which is an important component of natural habitats and can interact with organic pollutants. In addition, we tested the influence of two types of biosurfactants (tensio-active agents produced by living organisms) on phenanthrene's degradation by RP037. Interestingly, the surfactant's effects on the biodegradation rate appeared to depend on the type of biosurfactant and probably on the type of bacterial strain. Finally, we tagged B. sartisoli strain RP037 with a constitutively expressed mCherry fluorescent protein. The presence of mCherry allowed us to visualize the bacteria in complex samples even when GFP production was not induced. The new strain RP037-mChe embedded in a gel patch was used to detect PAH fluxes from a point source, such as a non-aqueous liquid or particles of contaminated soil. In parallel, we also developed and tested a so-called multiwell bacterial biosensor platform, which permitted the simultaneous use of four different reporter strains for the detection of major crude oil components (e.g., saturated hydrocarbons, mono- and polyaromatics) in aqueous samples. We specifically constructed the strain B. sartisoli RP007 (pPROBE-phn-luxAB) for the detection of naphthalene and phenanthrene. It was equipped with a reporter plasmid similar to the one in strain RP037, except that the gfp gene was replaced by the genes luxAB, which encoded the bacterial luciferase. The strain was implemented in the biosensor platform and detected an equivalent naphthalene concentration in oil spilled-sea water. We also cloned the gene for the transcriptional activator AlkS and the operator/promoter region of the operon alkSB1GHJ from the alkane-degrader bacterium Alcanivorax borkumensis strain SK2 in order to construct a new bacterial biosensor with higher sensitivity towards long-chain alkanes. However, the resulting strain showed no increased light emission in presence of tetradecane (C14), while it still efficiently reported low concentrations of octane (C8). RÉSUMÉ : Les écosystèmes naturels sont constamment exposés à nombre de contaminants organiques hydrophobes (COHs) d'origine industrielle, agricole ou même naturelle. Les COHs menacent à la fois l'environnement, le bien-être des espèces animales et végétales et la santé humaine, mais ils peuvent être dégradés par des micro-organismes tels que les bactéries et les champignons, qui peuvent être capables des les transformer en produits inoffensifs comme le gaz carbonique et l'eau. La biodégradation des COHs est cependant fréquemment limitée par leur pauvre disponibilité envers les organismes qui les dégradent. Ainsi, bien que la biodégradation opère partiellement, les COHs persistent dans l'environnement à de faibles concentrations qui potentiellement peuvent encore causer des effets toxiques chroniques. Puisque la plupart des COHs peuvent être métabolisés par l'activité microbienne, leur persistance a généralement pour origine des contraintes physico-chimiques plutôt que biologiques. Par exemple, leur solubilité dans l'eau très limitée réduit leur prise par des consommateurs potentiels. De plus, l'adsorption à la matière organique et la séquestration dans les micropores du sol participent à réduire leur disponibilité envers les microbes. Les processus de biodisponibilité, c'est-à-dire les processus qui gouvernent la dissolution et la prise de polluants par les organismes vivants, sont généralement perçus comme des paramètres clés pour la dépollution (bioremédiation) naturelle et stimulée des sites contaminés. Les hydrocarbures aromatiques polycycliques (HAPs) sont un modèle de COH produits par les activités aussi bien humaines que naturelles, et listés comme des contaminants chroniques de l'air, des sols et des sédiments. Ils peuvent être dégradés par un vaste nombre d'espèces bactériennes mais leur taux de biodégradation est souvent limité par les contraintes mentionnées ci-dessus. Afin de comprendre les processus de biodisponibilité pour les cellules bactériennes, nous avons décidé d'utiliser les bactéries elles-mêmes pour détecter et rapporter les flux de COH. Ceci a été réalisé par l'application d'une stratégie de conception visant à produire des bactéries `biocapteurs-rapporteurs', qui littéralement s'allument lorsqu'elles détectent un composé cible pour lequel elles ont été conçues. En premier lieu, nous nous sommes concentrés sur Burkholderia sartisoli (souche RP007), une bactérie isolée du sol et consommatrice de HAP .Cette souche a servi de base à la construction d'un circuit génétique permettant la formation de la protéine autofluorescente GFP dès que les cellules détectent le naphtalène ou le phénanthrène, deux HAP de faible masse moléculaire. En effet, nous avons pu montrer que la bactérie obtenue, la souche RP037 de B. sartisoli, produit une fluorescence GFP grandissante lors d'une exposition en culture liquide à du phénanthrène sous forme cristalline (0.5 mg par ml de milieu de culture). Nous avons découvert que pour une induction optimale il était nécessaire de fournir aux cellules une source additionnelle de carbone sous la forme d'acétate, ou sinon seul un nombre limité de cellules deviennent induites. Malgré cela, le phénanthrène a induit une réponse très hétérogène au sein de la population de cellules, avec quelques cellules pauvrement induites tandis que d'autres l'étaient très fortement. La raison de cette hétérogénéité extrême, même dans des cultures liquides mélangées, reste pour le moment incertaine. Plus important, nous avons pu montrer que l'amplitude de l'induction de GFP dépendait de paramètres physiques affectant le flux de phénanthrène aux cellules, tels que : la surface de contact entre le phénanthrène solide et la phase aqueuse ; l'ajout de surfactant ; le scellement de phénanthrène à l'intérieur de billes de polymères (Model Polymer Release System) ; la dissolution du phénanthrène dans un fluide gras immiscible à l'eau. Nous en avons conclu que la souche RP037 détecte convenablement des flux de phénantrène et nous avons proposé une relation entre le transfert de masse de phénanthrène et la production de GFP. Nous avons par la suite utilisé la souche afin d'examiner l'effet de plusieurs paramètres chimiques connus dans la littérature pour influencer la biodisponibilité des HAP. Premièrement, les acides humiques. Quelques rapports font état que la disponibilité des HAP pourrait être augmentée par la présence de matière organique dissoute. Nous avons mesuré l'induction de GFP comme fonction de l'exposition des cellules RP037 au phénanthrène ou au naphtalène en présence ou absence d'acides humiques dans la culture. Nous avons testé des concentrations d'acides humiques de 0.1 et 10 mg/L, tandis que le phénanthrène était ajouté via l'heptamethylnonane (HMN), un liquide non aqueux, ce qui au préalable avait produit le plus haut flux constant de phénanthrène aux cellules. De plus, nous avons utilisé des tests en phase gazeuse avec des concentrations d'acides humiques de 0.1, 10 et 1000 mg/L mais avec du naphtalène. Contrairement à ce que décrit la littérature, nos résultats ont indiqué que dans ces conditions l'expression de GFP en fonction de l'exposition au phénanthrène dans des cultures en croissance de la souche RP037 n'était pas modifiée par la présence d'acides humiques. D'un autre côté, le test en phase gazeuse avec du naphtalène a montré que 1000 mg/L d'acides humiques abaissent légèrement mais significativement la production de GFP dans les cellules de RP037. Nous avons conclu qu'il n'y a pas d'effet général des acides humiques sur la disponibilité des HAP pour les bactéries. Par la suite, nous nous sommes demandé si des biosurfactants modifieraient la disponibilité du phénanthrène pour les bactéries. Les surfactants sont souvent décrits dans la littérature comme des moyens d'accroître la biodisponibilité des COHs. Les surfactants sont des agents tensio-actifs qui augmentent la solubilité apparente de COH en les dissolvant à l'intérieur de micelles. Nous avons ainsi testé si des biosurfactants (des surfactants produits par des organismes vivants) peuvent être utilisé pour augmenter la biodisponibilité du phénanthrène pour la souche B. sartisoli RP037. Premièrement, nous avons tenté d'obtenir des biosurfactants produits par une autre bactérie vivant en co-culture avec les biocapteurs bactériens. Deuxièmement, nous avons utilisé des biosurfactants purifiés. La co-cultivation en présence de la bactérie productrice de lipopeptide Pseudomonas putida souche PCL1445 a augmenté l'expression de GFP induite par le phénanthrène chez B. sartisoli en comparaison des cultures simples, mais cet effet n'était pas significativement différent lorsque la souche RP037 était co-cultivée avec un mutant de P. putida ne produisant pas de lipopeptides. L'ajout de lipopeptides partiellement purifiés dans la culture de RP037 a résulté en une réduction de la tension de surface, mais n'a pas provoqué de changement dans l'expression de GFP. D'un autre côté, l'ajout d'une solution commerciale de rhamnolipides (un autre type de biosurfactants produits par Pseudomonas spp.) a facilité la dégradation du phénanthrène par la souche RP037 et induit une expression de GFP élevée dans une plus grande proportion de cellules. Nous avons ainsi conclu que les effets des biosurfactants sont mesurables à l'aide de la souche biocapteur, mais que ceux-ci sont dépendants du type de surfactant utilisé conjointement avec le phénanthrène. La question suivante que nous avons abordée était si les tests utilisant des biocapteurs peuvent être améliorés de manière à ce que les flux de HAP provenant de matériel contaminé soient détectés. Les tests en milieu liquide avec des échantillons de sol ne fournissant pas de mesures, et sachant que les concentrations de HAP dans l'eau sont en général extrêmement basses, nous avons conçu des tests de diffusion dans lesquels nous pouvons étudier l'induction par les HAPs en fonction de la distance aux cellules. Le biocapteur bactérien B. sartisoli souche RP037 a été marqué avec une seconde protéine fluorescente (mCherry), qui est constitutivement exprimée dans les cellules et leur confère une fluorescence rouge/rose. La souche résultante RP037-mChe témoigne d'une fluorescence rouge constitutive mais n'induit la fluorescence verte qu'en présence de naphtalène ou de phénanthrène. La présence d'un marqueur fluorescent constitutif nous permet de visualiser les biocapteurs bactériens plus facilement parmi des particules de sol. Un test de diffusion a été conçu en préparant un gel fait d'une suspension de cellules mélangées à 0.5 % d'agarose. Des bandes de gel de dimensions 0.5 x 2 cm x 1 mm ont été montées dans des chambres d'incubation et exposées à des sources de HAP (soit dissouts dans du HMN ou en tant que matériel solide, puis appliqués à une extrémité de la bande). En utilisant ce montage expérimental, le naphtalène ou le phénanthrène (dissouts dans du HMN à une concentration de 2.5 µg/µl) ont induit un gradient d'intensité de fluorescence GFP après 24 heures d'incubation, tandis que la fluorescence mCherry demeurait comparable. Un sol contaminé par des HAPs (provenant d'un ancien site de production de gaz) a induit la production de GFP à un niveau comparable à celui du naphtalène. Des biocapteurs bactériens individuels ont également détecté un flux de phénanthrène dans un gel contenant des particules de sol amendées avec 1 et 10 mg/g de phénanthrène. Ceci a montré que le test de diffusion peut être utilisé pour mesurer des flux de HAP provenant de matériel contaminé. D'un autre côté, la sensibilité est encore très basse pour plusieurs sols contaminés, et l'autofluorescence de certains échantillons rend difficile l'identification de la réponse de la GFP chez les cellules. Pour terminer, un des points majeurs de ce travail a été la production et la validation d'une plateforme multi-puits de biocapteurs bactériens, qui a permis l'emploi simultané de plusieurs souches différentes de biocapteurs pour la détection des constituants principaux du pétrole. Pour cela nous avons choisi les alcanes linéaires, les composés mono-aromatiques, les biphényls et les composés poly-aromatiques. De plus, nous avons utilisé un capteur pour la génotoxicité afin de détecter la `toxicité globale' dans des échantillons aqueux. Plusieurs efforts d'ingénierie ont été investis de manière à compléter ce set. En premier lieu, chaque souche a été équipée avec soit gfp, soit luxAB en tant que signal rapporteur. Deuxièmement, puisqu'aucune souche de biocapteur n'était disponible pour les HAP ou pour les alcanes à longues chaînes, nous avons spécifiquement construit deux nouveaux biocapteurs. L'un d'eux est également basé sur B. sartisoli RP007, que nous avons équipé avec le plasmide pPROBE-phn-luxAB pour la détection du naphtalène et du phénanthrène mais avec production de luciférase bactérienne. Un autre est un nouveau biocapteur bactérien pour les alcanes. Bien que nous possédions une souche Escherichia coli DHS α (pGEc74, pJAMA7) détectant les alcanes courts de manière satisfaisante, la présence des alcanes à longues chaînes n'était pas rapportée efficacement. Nous avons cloné le gène de l'activateur transcriptionnel A1kS ainsi que la région opérateur/promoteur de l'opéron alkSB1GHJ chez la bactérie dégradant les alcanes Alcanivorax borkumensis souche SK2, afin de construire un nouveau biocapteur bactérien bénéficiant d'une sensibilité accrue envers les alcanes à longues chaînes. Cependant, la souche résultante E. coli DHSα (pAlk3} n'a pas montré d'émission de lumière augmentée en présence de tétradécane (C14), tandis qu'elle rapportait toujours efficacement de basses concentrations d'octane (C8). De manière surprenante, l'utilisation de A. borkumensis en tant que souche hôte pour le nouveau plasmide rapporteur basé sur la GFP a totalement supprimé la sensibilité pour l'octane, tandis que la détection de tétradécane n'était pas accrue. Cet aspect devra être résolu dans de futurs travaux. Pour calibrer la plateforme de biocapteurs, nous avons simulé une fuite de pétrole en mer dans une bouteille en verre ouverte de 5L contenant 2L d'eau de mer contaminée avec 20 ml (1%) de pétrole brut. La phase aqueuse a été échantillonée à intervalles réguliers après la fuite durant une période allant jusqu'à une semaine tandis que les principaux contaminants pétroliers étaient mesurés via les biocapteurs. L'émission de bioluminescence a été mesurée de manière à déterminer la réponse des biocapteurs et une calibration intégrée faite avec des inducteurs types a servi à calculer des concentrations d'équivalents inducteurs dans l'échantillon. E. coli a été utilisée en tant que souche hôte pour la plupart des spécificités des biocapteurs, à l'exception de la détection du naphtalène et du phénanthrène pour lesquels nous avons utilisé B. sartisoli. Cette souche, cependant, peut être employée plus ou moins selon la même procédure. Il est intéressant de noter que le pétrole répandu a produit une apparition séquentielle de composés dissouts dans la phase aqueuse, ceux-ci .étant détectables par les biocapteurs. Ce profil contenait d'abord les alcanes à courtes chaînes et les BTEX (c'est-à dire benzène, toluène, éthylbenzène et xylènes), apparaissant entre des minutes et des heures après que le pétrole a été versé. Leurs concentrations aqueuses ont par la suite fortement décru dans l'eau échantillonnée après 24 heures, à cause de la volatilisation ou de la biodégradation. Après quelques jours d'incubation, ces composés sont devenus indétectables. Les HAPs, en revanche, sont apparus plus tard que les alcanes et les BTEX, et leur concentration a augmenté de pair avec un temps d'incubation prolongé. Aucun signal significatif n'a été mis en évidence avec le biocapteur pour le biphényl ou pour la génotoxicité. Ceci démontre l'utilité de ces biocapteurs, spécifiquement pour la détection des composés pétroliers, comprenant les alcanes à courtes chaînes, les BTEX et les HAPs légers.
Resumo:
Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Selon la tradition orientale, les représentations de Jésus trouveraient toutes leur origine dans les images acheiropoïètes, c'est-à-dire dans des figurations de la "Sainte Face" du Christ non faites de main d'homme, mais survenues par apparition divine -sur le voile de Véronique, le Saint Suaire, le mandylion d'Edesse, etc. Ces images qui, pour des théologiens de l'icône tels que Léonide Ouspensky, ne sont rien moins que "la manifestation du miracle fondamental : la venue du Créateur dans sa création" (in L'Image du Christ non faite de main d'homme, 1989), ont toujours été le ferment d'expérimentations multiples chez les peintres et les sculpteurs.Mais la réflexion artistique s'est cristallisée au moment où ces images sont devenues l'apanage de médiums issus de "l'ère de la reproductibilité technique" chère à Benjamin. En effet, les images "théographes" auraient pour spécificité d'être engendrées et de se multiplier par empreinte immédiate: une toile quelconque n'aurait qu'à être touchée par le visage du Christ pour devenir instantanément le support du divin portrait, et acquérir dès lors le "pouvoir reconnu aux acheiropoïètes de créer des doubles de même valeur, par simple contact" (François Boespflug, Dieu et ses images. Une histoire de l'Eternel dans l'art, 2008). Comment mieux faire écho aux principes mêmes de l'image (ciné)photographique, générée par indicialité et reproductibilité? André Bazin a eu l'intuition de cette parenté dans le cadre de sa théorisation sur le pouvoir "révélateur" de l'image (ciné)photographique qui selon lui procéderait "par sa genèse" de "l'ontologie du modèle" et "serait" le modèle; il a évoqué le Saint Suaire de Turin comme rejouant, voire emblématisant cette même "ontologie de l'image photographique" (dans l'article homonyme de 1945). Si Bazin ne développe pas plus avant ses considérations, la corrélation des dispositifs (ciné)photographique et acheiropoïète a connu un questionnement « en actes », au sein des films cherchant à représenter Jésus.Valentine Robert s'intéresse à ces expérimentations, à commencer par un projet de film d'Abel Gance de 1947, resté inachevé, où le suaire de Turin devait se transformer en écran de cinéma. Plusieurs autres productions seront abordées, telles que Civilization ou The Robe, qui explorent les effets visuels permis par la pellicule pour montrer le Christ en surimpression, dans une sorte d'"apparition technologique", ou telles que The Jesus Film ou The Passion of the Christ, dont la projection a été reçue par certains publics comme une apparition sacrée réactualisant l'Incarnation. Les modalités de la représentation des images acheiropoïètes et plus généralement de l'apparition de Jésus à l'écran seront enfin évoquées - de la tradition hollywoodiennes qui consistait à refuser l'accès de la "Sainte Face" à la pellicule et de la rejeter hors-champ jusqu'aux séquences d'Ecce Homo de Scorsese et Zeffirelli, en passant par la révélation visuelle inaugurant The King of Kings, qui pousse à son paroxysme la collusion entre apparition divine et apparition cinématographique.
Resumo:
Il y a environ 125 millions d'années, au Crétacé inférieur, la position des continents et le climat terrestre étaient bien différents de ce que l'on connait aujourd'hui. Le Sud-Est de la France, secteur de cette étude, était alors recouvert d'eau, sous un climat chaud et humide. Sur la bordure de cette étendue d'eau (appelée bassin Vocontien), qui correspond aujourd'hui aux régions de la Provence, du Vaucluse, du Gard, de l'Ardèche et du Vercors, des plateformes carbonatées, (telles que les Bahamas), se développaient. Le calcaire, formé à partir des sédiments accumulés sur ces plateformes, est appelé Urgonien. L'objectif de cette étude est de définir les facteurs qui ont influencé le développement de cette plateforme carbonatée dite « urgonienne » et dans quelle mesure. Plusieurs missions de terrain ont permis de récolter de nombreux échantillons de roche en 52 lieux répartis sur l'ensemble du Sud-Est de la France. Les observations réalisées sur le terrain ainsi que les données acquises en laboratoire (microfaune, microfacies et données géo-chimiques) ont permis, de subdiviser chacune des 52 séries urgoniennes en séquences stratigraphiques et cortèges sédimentaires. La comparaison des épaisseurs et des faciès de chaque cortège sédimentaire permet de concevoir la géométrie et l'évolution paléogéographique de la plateforme urgonienne. Les résultats de cette étude démontrent que son organisation est principalement dirigée par des failles qui ont jouées pendant le dépôt des sédiments. Sur la bordure nord du bassin Vocontien, trois failles subméridiennes contrôlent la géométrie et la répartition des environnements de dépôt. Sur sa bordure sud, ces failles synsédimentaires d'orientation N30° et N110° délimitent des blocs basculés. En tête de bloc, des séries d'épaisseurs réduites à faciès de lagon interne se sont déposées alors que les pieds de blocs sont caractérisés par des épaisseurs importantes et la présence de faciès plus externes. Ces concepts ont ensuite été testés en construisant un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des formations équivalentes à l'Urgonien sont réparties dans le monde entier et notamment au Moyen-Orient où elles constituent les réservoirs pétroliers les plus importants. Etre capable de caractériser les facteurs ayant influencé son architecture permet par la suite une meilleure exploitation de ses ressources énergétiques. -- Au Crétacé inférieur, l'intense activité magmatique due à la dislocation du super-continent Pangée influence fortement les conditions environnementales globales. Au Barrémien terminal et Aptien basal, période géologique dont fait l'objet cette étude, le bassin Vocontien, puis Bédoulien, recouvre le Sud-Est de la France, sous un climat chaud et humide. Sur les bordures de ces bassins, des plateformes carbonatées se mettent en place. Les sédiments qui se déposent sur ces plateformes sont à l'origine de la formation urgonienne. Afin d'étudier cette formation, une charte biostratigraphique, principalement basée sur les Orbitolinidés, et un modèle de faciès ont été développés. Les assemblages faunistiques, la succession des faciès, les observations de terrain ainsi que l'étude de signaux géochimiques ont permis le découpage séquentiel de la série urgonienne le long de 54 coupes et puis, répartis sur l'ensemble du Sud-Est de la France. Les corrélations induites par cette étude stratigraphique ont mis en évidence d'importantes variations d'épaisseur et d'environnements de dépôt au sein même de la plateforme urgonienne. Ces variations sont expliquées par le jeu de failles syn-sédimentaires qui ont compartimentées la plateforme urgonienne en blocs. Sur la bordure sud du bassin Vocontien, ces failles d'orientation N30° et N110° délimitent six blocs basculés. Au sommet du Barrémien terminal, la subsidence des blocs situés le plus au sud s'amplifie jusqu'à provoquer l'ouverture du bassin de la Bédoule au sud du secteur d'étude. Cette théorie d'évolution a ensuite été testée par l'élaboration d'un modèle numérique en trois dimensions de l'Urgonien du Sud-Est de la France. Sa cohérence avec les données acquises tout au long de cette étude d'une part, et sa cohérence géométrique d'autre part, valide les théories avancées. Des analogues de l'Urgonien sont répartis dans le monde entier et notamment au Moyen-Orient où ils représentent d'importants réservoirs pétroliers. Être capable de caractériser les facteurs ayant influencé l'architecture de l'Urgonien du Sud-Est de la France permet par la suite une meilleure exploitation de ses ressources énergétiques. -- During the Early Cretaceous epoch, intensive magmatic activity due to the dislocation of the super-continent Pangaea, highly influenced global environmental conditions, which were characterized by a warm and generally humic climate. In this context, carbonate platforms were important in tropical and subtropical shallow-water regions, and especially during the late Barremian and early Aptian, platform carbonates of so-called Urgonian affinity are widespread. In southeastern France, the Urgonian platform was part of the northern Tethyan margin and bordered the Vocontian and the Bedoulian basins. The goal of this thesis was the systematic study of the Urgonian Formation in this region, and in order to achieve this goal, a biostratigraphic chart and a facies model were developed. The faunistic assemblages, the facies succession, the field observations and the study of geochemical signals lead to a sequential subdivision of the Urgonian series along 54 sections and wells allocated in five different regions in southeastern France (Gard, Ardèche, Vercors, Vaucluse and Provence). Correlations from this stratigraphic study highlight important variations in thickness and depositional environments of the Urgonian series. These variations are explained by relative movements induced by syn-sedimentary faults, which divided the Urgonian platforms into blocks. On the southern border of the Vocontian basin, these faults, oriented N30° and N110°, delineate six tilted blocks. At the top of the upper Barremian carbonates, subsidence of the two southern blocks accelerated leading to the opening of the Bedoulian basin. The reconstruction of the sequence-stratigraphic and paleoenvironmental evolution of the Urgonian platforms was then tested by the construction of a 3D numerical model of the Urgonian formation of southeastern France. Firstly, its consistency with the data collected during this study, and secondly, its geometrical coherence validate the proposed theory. Urgonian analogs exist all over the world and particularly in Middle East where they constitute important oil reservoirs. The exact reconstruction of the major factors, which influenced the architecture of these formations, will allow for a better exploitation of these energy resources.
Resumo:
L'accompagnement spirituel dans les prisons suisses est dominé par un modèle monoculturel d'inspiration chrétienne. Or, la présence importante de détenus de confession musulmane dans les établissements pénitentiaires incitent ceux-ci à organiser un soutien spirituel adapté à cette catégorie de leur population. Dans quel cadre légal cet accompagnement spirituel se déroule-t-il? Quelle forme prend-il ? Quels sont ceux (et plus rarement celles) qui assistent spirituellement les détenus musulmans ? Cet article propose de répondre à ces questions en énonçant les principes juridiques relatifs à l'exercice de la religion en contexte carcéral. Puis, sur la base de matériaux qualitatifs et quantitatif, il présente cinq profils d'intervenants musulmans de prison : l'imam, l'aumônier, le grand-frère, le médiateur et le visiteur.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.