498 resultados para Fresnel cogenerazione CPV celle multigiunzione
Resumo:
Depuis les années 1980, la sociologie a connu une résurgence des thèses du déclin des classes sociales qui a provoqué d'importants débats. En matière d'évolution de la structure de classe plus particulièrement, le débat se focalise sur les thèses dites de la « moyennisation » de la société et de l'« aspiration vers le haut ». Dans ce cadre, la société (postindustrielle) serait désormais constituée d'une vaste classe moyenne tendant à provoquer une dissolution générale des frontières de classes. Cet article est une contribution empirique à ce débat et porte, plus précisément, sur l'évolution de la société suisse contemporaine. A priori, le cas suisse peut sembler favorable aux thèses du déclin des classes sociales. En effet, en comparaison européenne, la Suisse connaît un secteur des services supérieur à la moyenne, un chômage inférieur à celle-ci ou encore un niveau de rémunération supérieur à la moyenne ; tous phénomènes souvent mis en avant pour expliquer le déclin affirmé des classes sociales. Afin d'évaluer les thèses sous revue, une série d'hypothèses ont été formulées au sujet de l'évolution de la division du travail (mesurée selon la classification internationale des professions) d'une part, de la structure de classe (approchée par les catégories socioprofessionnelles helvétiques) d'autre part. L'analyse se base sur des données secondaires, ce qui implique une dépendance vis-à-vis des pratiques des institutions « productrices ». Malgré ces limitations méthodologiques, l'analyse montre que - au moins prises comme un tout cohérent - les thèses du déclin des classes sociales sont réfutées dans le cas, pourtant favorable en principe, de la société suisse contemporaine. Ainsi, entre autres, cette dernière s'avère n'être pas plus une société de classes moyennes que de classes populaires ; ce qui la rapproche d'ailleurs de nombreuses sociétés européennes.
Resumo:
Rapport de synthèse: Enjeux de la recherche : La pneumonie communautaire chez l'enfant est un problème de santé publique considérable. Elle est responsable de 2 millions de mort par année, 70% survenant dans les pays en voie de développement. Sous nos latitudes son incidence est de 40/1000 enfants par année, ce qui représente une morbidité importante. Deux difficultés surviennent lorsqu'on cherche à diagnostiquer une pneumonie. La première est de distinguer une pneumonie bactérienne d'une virale, particulièrement chez les petits enfants où les infections virales des voies respiratoires inférieures sont fréquentes. L'OMS a définit la pneumonie selon des critères exclusivement cliniques et une étude effectuée à Lausanne en 2000 a montré que ces critères peuvent être utilisés dans nos contrées. La seconde difficulté est de définir l'agent causal de la pneumonie, ceci pour plusieurs raisons : L'aspiration endotrachéale, seul examen fiable, ne peut être obtenue de routine chez l'enfant vu son caractère invasif, la culture des secrétions nasopharyngées reflète la flore physiologique de la sphère ORL et une bactériémie n'est présente que dans moins de 10% des pneumonies. L'étiologie de la pneumonie reste souvent inconnue, et de ce fait plusieurs enfants reçoivent des antibiotiques pour une infection non bactérienne ce qui contribue au développement de résistances. L'objectif de cette étude était d'effectuer une recherche extensive de l'agent causal de la pneumonie et de déterminer quels facteurs pourraient aider le clinicien à différencier une pneumonie virale de bactérienne, en corrélant l'étiologie avec la sévérité clinique et les marqueurs de l'inflammation. Contexte de la recherche : II s'agissait d'une étude prospective, multicentrique, incluant les enfants âgés de 2 mois à 5 ans hospitalisés pour une pneumonie, selon les critères de l'OMS, dans le service de pédiatrie de Lausanne et Genève entre mars 2003 et Décembre 2005, avant l'implantation de la vaccination antipneumococcique de routine. Chaque enfant, en plus des examens usuels, bénéficiait d'une recherche étiologique extensive : Culture virale et bactérienne, PCR (Mycoplasma Pneumoniae, Chlamydia Pneumoniae, Virus Influenza A et B, RSV A et B, Rhinovirus, Parainfluenza 1-3, enterovirus, human metapneumovirus, coronavirus OC43, E229 ; et NL 63) et détection d'AG viraux dans les sécrétions nasopharyngées ; sérologies virales et bactériennes à l'entrée et 3 semaines après la sortie (AG Influenza A et B, Parainfluenza 1,2 et 3, RSV, Adenovirus, M.Pneumoniae et S.Pneumoniae). Conclusions : Un agent pathogène a été découvert chez 86% des 99 patients retenus confirmant le fait que plus la recherche étiologique est étendue plus le pourcentage d'agent causal trouvé est élevé. Une infection bactérienne a été découverte chez 53% des patients dont 45% avaient une infection à S. Pneumoniae confirmant l'importance d'une vaccination antipneumococcique de routine. La déshydratation et les marqueurs de l'inflammation tels que la C-Reactive Protein et la Procalcitonine étaient significativement plus élevés dans les pneumonies bactériennes. Aucune corrélation n'a été trouvée entre le degré de sévérité de la pneumonie et l'étiologie. L'étude a confirmé la haute prévalence d'infections virales (67%) et de co-infection (33%) dans la pneumonie de l'enfant sans que l'on connaisse le rôle réel du virus dans la pathogenèse de la pneumonie. Perspectives : d'autres études à la suite de celle-ci devraient être effectuées en incluant les patients ambulatoires afin de déterminer, avec un collectif plus large de patient, une éventuelle corrélation entre sévérité clinique et étiologie. Abstract : Community-acquired pneumonia (CAP) is a major cause of death in developing countries and of morbidity in developed countries. The objective of the study was to define the causative agents among children hospitalized for CAP defined by WHO guidelines and to correlate etiology with clinical severity and surrogate markers. Investigations included an extensive etiological workup. A potential causative agent was detected in 86% of the 99 enrolled patients, with evidence of bacterial (53%), viral (67%), and mixed (33%) infections. Streptococcus pneumoniae was accounted for in 46% of CAP. Dehydration was the only clinical sign associated with bacterial pneumonia. CRP and PCT were significantly higher in bacterial infections. Increasing the number of diagnostic tests identifies potential causes of CAP in up to 86% of children, indicating a high prevalence of viruses and frequent co-infections. The high proportion of pneumococcal infections re-emphasizes the importance of pneumococcal immunization.
Resumo:
CHAPITRE PREMIER: INTRODUCTION 1. Considérer l'idéal... L'idéal n'est probablement pas de ce monde, mais il importe de tendre vers lui. Il restera peut-être hors de portée, mais le seul fait de le considérer doit déjà être assimilé à un progrès. Dans le cadre de l'exécution des peines privatives de liberté, l'idéal dont nous parlons ici fait référence à la prise en charge du détenu et à la volonté d'offrir à ce dernier, un jour, la possibilité de réintégrer la société. Le système carcéral se doit dès lors de mettre tout en oeuvre pour permettre au détenu d'acquérir les outils nécessaires à sa future liberté; cette liberté qui, dès les premiers jours d'incarcération déjà, devra être envisagée. L'idéal est donc de voir le détenu évoluer progressivement vers le monde libre, le respect de ce monde et des valeurs qu'il véhicule. C'est l'idéal que dessine le nouveau Code pénal (CP), plus particulièrement au travers des principes qu'il consacre aux articles 74 et 75 al. 1 CP: «le détenu a droit au respect de [sa] dignité»; «l'exercice de [ses] droits ne peut être restreint que dans la mesure requise par la privation de liberté et par les exigences de la vie collective dans l'établissement»; «l'exécution de la peine [...] doit améliorer le comportement social du détenu»; «l'exécution de la peine doit correspondre autant que possible à des conditions de vie ordinaires, assurer au détenu l'assistance nécessaire» et «combattre les effets nocifs de la privation de liberté». De la réalité carcérale à l'idéal législatif, il est toutefois certains écueils. Les différents professionnels qui sont en contact avec les détenus le confirmeront volontiers, pour la plupart. Il existe des détenus qui ne veulent pas se réintégrer diront certains, alors que d'autres mettront en avant l'insuffisance de moyens humains ou financiers. Une réalité doit cependant triompher de toutes les autres: il est nécessaire de faire évoluer le système pénitentiaire. Tout comme la société, dont elle est partie intégrante, la prison doit évoluer avec son temps, et les développements que suit le monde libre se doivent d'aller au-delà des murs. Notre approche de la thématique restera évidemment théorique, mais elle sera dictée par cette volonté progressiste. Si les concepts abordés peuvent parfois paraître naïfs dans leur développement, ils n'en seront pas moins l'expression d'un idéal, celui-là même qu'il est bon de considérer, parfois, pour permettre le progrès. II. La méthodologie La difficulté de traiter des principes régissant l'exécution des peines privatives de liberté est multiple. L'une des premières problématiques est liée au fédéralisme suisse et au fait que l'exécution des peines ressort de la compétence cantonale (art. 123 al. 2 Cst.). Il en résulte des pratiques cantonales parfois différentes. Il est alors non seulement difficile d'aborder l'ensemble des ces différences, mais il peut même être discutable de les tolérer, au sens où elles présentent parfois des inégalités de traitement entre les détenus du pays. L'attribution récente de compétences expresses en la matière à la Confédération (art. 123 al. 3ère phr. Cst.) devrait toutefois permettre, à notre sens, de réduire ces inégalités et, plus généralement, de favoriser une uniformisation des pratiques à travers le pays. Une deuxième difficulté est due à l'évolution législative actuelle. En effet, l'entrée en vigueur du nouveau Code pénal impose une «mise à jour» substantielle aux cantons, dont les normes mais aussi les infrastructures doivent être adaptées au nouveau droit. Au-delà du nombre considérable de bases légales que compte notre pays en matière d'exécution des peines privatives de liberté, il faut en outre jongler avec l'élaboration d'une multitude de nouvelles lois cantonales. Nous renonçons à dresser ici la liste exhaustive des bases légales cantonales concernées, non seulement parce qu'il nous paraît difficile de connaître l'ensemble de ces évolutions législatives récentes ou à venir, mais aussi parce qu'il s'agit avant tout de traiter de problématiques générales soulevées par l'exécution des peines privatives de liberté, ce qui ne nécessite pas une revue exhaustive des différentes législations cantonales. Certaines de ces bases légales seront néanmoins mentionnées, ci et là, pour illustrer ou appuyer quelques-uns de nos propos. La troisième difficulté qu'il faut mentionner ici relève du lien étroit qui existe entre le droit de l'exécution des peines et la criminologie, ainsi que, plus généralement, l'ensemble des sciences s'intéressant à la déviance en tant que maladie (psychiatrie, psychologie, médecine, etc.). Il nous semble en effet difficile de traiter de la prise en charge du détenu par la seule voie juridique et, à ce titre, nous proposerons une analyse empreinte de considérations criminologiques substantielles et notamment de différentes données fournies par des études de criminologie. Dans la limite de nos compétences - plus que restreintes en la matière -, il sera parfois également traité de l'exécution des peines sous l'angle de la psychologie, de la psychiatrie, ou encore de la médecine. Enfin, il faut reconnaître que la thématique traitée est vaste. Les différents principes énumérés aux articles 74 et 75 al. 1 CP ne peuvent en effet être abordés sans que référence soit faite aux nombreuses dispositions traitant de l'exécution des peines privatives de liberté et qui se doivent d'en être la consécration. Cette réalité impose une approche générale du fonctionnement du milieu carcéral et l'analyse de l'exécution d'une peine privative de liberté sur toute sa durée, du premier jour d'incarcération jusqu'à la libération, en passant par les différents aménagements et élargissements possibles qui, très souvent, seront essentiels à la réintégration sociale du détenu. En l'espèce, il nous semble nécessaire de rappeler ici la particularité de la population étudiée, qui se distingue notamment par son hétérogénéité. Or, il ne sera pas toujours possible, dans le cadre de ce travail tout au moins, de s'arrêter sur les spécificités propres à chaque type de détenu(s). On pense ici plus particulièrement aux détenus étrangers - qui sont nombreux dans les prisons suisses -, plus particulièrement lorsque ceux-ci font l'objet d'une mesure d'expulsion au terme de leur peine. Certains se demandent en effet s'il est pertinent de favoriser la resocialisation d'un individu qui ne résidera pas en Suisse une fois libéré, sans parler des difficultés pratiques qu'il peut y avoir à proposer un régime progressif, et plus particulièrement l'ouverture vers l'extérieur, à des gens qui n'ont, aux plus proches alentours (la Suisse est un petit pays) de l'établissement de détention, aucune attache sociale. Il nous semble toutefois ressortir du devoir étatique d'offrir, à ces personnes aussi, une exécution de peine qui, dans toute la mesure du possible, ressemble à celle réservée aux indigènes. C'est dans cette optique, d'ailleurs, que nous tenterons de traiter de quelques unes des principales problématiques soulevées par la mise en application des principes régissant l'exécution des peines privatives de liberté.
Resumo:
(Résumé de l'ouvrage) Cette Introduction informe ses lecteurs des questions essentielles abordées dans l'étude des vingt-sept livres du Nouveau Testament. Chacun d'eux fait ici l'objet d'un chapitre qui développe les rubriques suivantes : présentation littéraire de l'écrit, milieu et circonstances historiques de sa production, composition littéraire, visée théologique et indications bibliographiques. Regroupant des exégètes francophones de sensibilité protestante et catholique, cet ouvrage est devenu un manuel de référence. Pour sa 4e édition, il a été adapté à l'actualité des recherches en Nouveau Testament et offre les bibliographies les plus récentes. Un nouveau chapitre, « De Jésus aux évangiles », a également été introduit. Daniel Marguerat y aborde la période la plus obscure du premier christianisme : celle qui sépare la mort de Jésus de l'écriture du plus ancien évangile.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
SUMMARY : The coevolution between two intimately associated organisms, like host and parasite, is a widely investigated theme in evolutionary biology. Recently, the use of genetic data in the study of host-parasite systems evidences that the genetic information from some parasites can complement genetic data from their hosts and thus may help to better understand their host's evolutionary history. Phylogenetic and population genetic aspects of bat parasites have been poorly investigated. Spinturnicid mites are highly specialized ectoparasites, exclusively associated with bats and therefore represent an ideal model to extant our knowledge on bat and parasite biology and on their coevolutionary history. In this thesis, I developed several molecular markers (mitochondrial DNA) to compare the genetic patterns of Spinturnix mites with their bat hosts at different levels. The molecular co-phylogeny between Spinturnix sp. and their bat hosts suggests a partial cospeciation and the occurrence of failure to speciate events and multiple host switches. Thus, Spinturnix mites do not exactly mirror the phylogenetic pattern of their hosts, despite their intimate association. Similar roosting habits of the hosts seem to promote host switches between different species, as far as ecological conditions are favourable. The phylogeographic study of the Maghrebian bat M. punicus in the Mediterranean area confirms the presence of M. punicus in North Africa, Corsica and Sardinia and highlights that islands and mainland are genetically highly divergent. The comparison between the parasitic mite S. myoti and the Maghrebian bat suggests that the phylogeographic pattern of the mite is moulded by its host, with open water as main barrier for host and parasite dispersal. Moreover, the unique presence of a European S. myoti lineage on M. punicus from Corsica strongly suggests the former presence of mouse-eared bats (M. myotis and/or M. blythii) in Corsica. By highlighting the probable presence of a nowadays locally extinct host species, S. myoti may represent a good proxy for inferring complex evolutionary history of bat hosts. Finally, population genetic surveys of S. myoti and S. bechsteinii suggest that these mites benefit from close contacts between individuals during the mating season and/or hibernation to disperse among remote colonies. The contrasted genetic patterns of these two distinct bat-mite systems evidence that bat social structure is a determinant factor of the genetic structure of mite populations. Altogether, this PhD thesis demonstrates the usefulness of parasites to gather information about their bat hosts. In addition, my results illustrate how different ecological and biological characteristics of bat species allow the emergence of a surprising diversity in the genetic patterns of the parasites, which may contribute to the diversification and speciation of parasites. RESUME : La co-évolution entre deux organismes intimement liés, comme un parasite et son hôte, fait partie des questions largement étudiées en biologie évolutive. Récemment, l'utilisation de données génétique dans l'étude des interactions hôte-parasite a montré que l'information génétique de certains parasites peut compléter les données génétiques de l'hôte et ainsi peut éclairer l'histoire évolutive de leur hôte. Très peu études ont étudié les interactions entre les chauves-souris et leurs parasites d'un point de vue moléculaire. Les acariens du genre Spinturnix sont des ectoparasites très spécialisés exclusivement associés aux chauves-souris. Ils représentent donc un model idéal pour élargir nos connaissances tant sur l'écologie des parasites de chauves-souris que sur leur coévolution. Durant cette thèse, plusieurs marqueurs moléculaires (ADN mitochondrial) ont été développés pour ainsi comparer la distribution de la variation génétique des parasites du genre Spinturnix avec celle de leurs hôtes, et ceci à différents niveaux. Tout d'abord, la co-phylogénie moléculaire entre les espèces de Spinturnix et les leurs hôtes révèle une co-spéciation partielle ainsi que la présence d'événement de non spéciation et de transferts horizontaux. Ces parasites ne reflètent donc pas entièrement l'histoire évolutive de leurs hôtes, malgré leurs intimes associations. La cohabitation de plusieurs espèces de chauves-souris dans un même gîte permet aux parasites un transfert entre différentes espèces, atténuant ainsi leur degré de co-spéciation. Deuxièmement, l'étude phylogéographique du marin du Maghreb dans le bassin Méditerranéen confirme sa présence en Afrique du Nord, en Corse et en Sardaigne. La comparaison avec un de ses parasites S. myoti suggère que la répartition génétique de S. myoti est façonnée par celle de leurs hôtes, avec les étendues d'eau comme barrière principale tant à la dispersion de l'hôte que de son parasite. De plus, la présence unique d'une lignée européenne de ces parasites sur des marins du Maghreb de Corse suggère fortement la présence du grand ou petit marin en Corse dans le passé. En reflétant la présence potentielle à un endroit donné d'une espèce de chauve-souris actuellement disparue, S. myoti peut représenter une bonne alternative pour comprendre l'histoire évolutive complexe des chauves-souris. Finalement, l'étude des structures génétiques des populations des parasites S. myoti et S. bechsteinii suggère que les contacts corporels entre chauves-souris durant la saison de reproduction ou l'hibernation peuvent permettre la dispersion des parasites entre des colonies éloignées géographiquement. La différence de structure génétique entre ces deux associations particulières montre que la structure génétique des populations de parasites dépend fortement des traits d'histoire de vie de son hôte. Dans l'ensemble, cette thèse démontre l'importance des parasites pour amener des informations sur leurs hôtes, les chauves-souris. Elle illustre aussi comment les différences écologique et biologique des différentes espèces de chauves-souris peuvent amener une étonnante diversité de structure génétique au sein de populations de parasites, ce qui peut peut-être contribuer à la diversification et à la spéciation des parasites.
Resumo:
Introduction : L'ostéoporose et/ou les fractures liées à la grossesse sont souvent sous-diagnostiquées. Nous rapportons 2 cas de fractures diagnostiquées peu après l'accouchement de 2èmes grossesses. Patientes. Cas 1. Patiente de 30 ans présentant des dorso-lombalgies à la fin de sa 2ème grossesse. Une IRM après l'accouchement montre 2 fractures vertébrales (L1 et L2). Densité minérale osseuse (DMO): T-score colonne: -3.9 DS, col fémoral -1.7 DS et hanche totale -0.6 DS. Cas 2. Patiente de 32 ans, présentant des douleurs fessières à la fin de sa 2ème grossesse. L'IRM pelvienne après l'accouchement montre une fracture de l'aile sacrée droite S1-S3 et de l'aile sacrée gauche S1.DMO: T-score colonne -1.4 DS, col fémoral 0.2 DS et hanche totale 0.0 DS. La microarchitecture est normale (TBS 1.429). Nous retenons dans le 1er cas le diagnostic d'une ostéoporose fracturaire liée à la grossesse. De l'ibandronate trimestriel iv est prescrit. Dans le 2ème cas, au vu de la DMO quasi normale, de la trabéculométrie normale et du site atypique de la fracture, nous concluons à une fracture non ostéoporotique sur augmentation du stress mécanique lié à la grossesse. Aucun traitement à visée osseuse n'est prescrit. Discussion : " L'ostéoporose " liée à la grossesse et à l'allaitement se manifeste le plus souvent par des fractures vertébrales non traumatiques pendant le 3ème trimestre de la 1ère grossesse ou durant le post-partum. Une DMO et un bilan à la recherche d'une cause secondaire sont indispensables. Cette pathologie est sous-diagnostiquée, car les douleurs dorsolombaires sont souvent mises sur le compte d'une hyperlaxité ligamentaire physiologique liée aux hormones. Les facteurs de risque sont les mêmes que pour une ostéoporose post-ménopausique. Les apports bas en calcium et en vitamine D3 ainsi qu'un capital osseux moindre à la fin de l'adolescence seraient des facteurs prédisposants. La DMO lombaire diminue de 7.6 +/-0.1%, celle du corps entier de 3.9 +/-0.1% pendant la grossesse et l'allaitement. Habituellement on assiste à une récupération de la DMO dans les mois qui suivent la fin de l'allaitement. Conclusion : Devant des douleurs rachidiennes en fin de grossesse il faut évoquer une fracture ostéoporotique liée à la grossesse. La densitométrie osseuse peut aider au diagnostic même s'il faut l'interpréter prudemment dans les mois qui suivent l'accouchement. Il n'y a pas de consensus concernant le traitement spécifique.
Resumo:
La question centrale de ce travail est celle de la relation entre finitude environnementale et liberté individuelle. Par finitude environnementale il faut entendre l'ensemble des contraintes écologiques variées qui posent des limites à l'action humaine. Celles-ci sont de deux types généraux : les limites de disponibilité des ressources naturelles et: les limites de charge des écosystèmes et des grands cycles biogéochimiques globaux (chapitre 1). La thèse défendue ici est que les conceptions libertariennes et libérales de la liberté sont en conflit avec la nécessité de prendre en compte de telles limites et qu'une approche néo-républicaine est mieux à même de répondre à ces enjeux écologiques. Les théories libertariennes, de droite comme de gauche, sont inadaptées à la prise en compte de la finitude des ressources naturelles car elles maintiennent un droit à l'appropriation illimitée de ces dernières par les individus. Ce point est en contradiction avec le caractère systémique de la rareté et avec l'absence de substitut pour certaines ressources indispensables à la poursuite d'une vie décente (chapitres 2 et 3). La théorie libérale de la neutralité, appuyée par le principe du tort (harm principle), est quant à elle inadaptée à la prise en compte des problèmes environnementaux globaux comme le changement climatique. Les mécanismes causaux menant à la création de dommages environnementaux sont en effet indirects et diffus, ce qui empêche l'assignation de responsabilités au niveau individuel. La justification de politiques environnementales contraignantes s'en trouve donc mise en péril (chapitre 4). Ces difficultés proviennent avant tout de deux traits caractéristiques de ces doctrines : leur ontologie sociale atomiste et leur conception de la liberté comme liberté de choix. Le néo-républicanisme de Philip Pettit permet de répondre à ces deux problèmes grâce à son ontologie holiste et à sa conception de la liberté comme non- domination. Cette théorie permet donc à la fois de proposer une conception de la liberté compatible avec la finitude environnementale et de justifier des politiques environnementales exigeantes, sans que le sacrifice en termes de liberté n'apparaisse trop important (chapitre 5). - The centrai issue of this work is that of the relationship between environmental finiteness and individual liberty. By environmental finiteness one should understand the set of diverse ecological constraints that limit human action. These limits are of two general kinds: on the one hand the availability of natural resources, and on the other hand the carrying capacity of ecosystems and biogeochemical cycles (chapter 1}. The thesis defended here is that libertarian and liberal conceptions of liberty conflict with the necessity to take such limits into account, and that a neo-republican approach is best suited to address environmental issues. Libertarian theories, right-wing as well as left-wing, are in particular not able to take resource scarcity into account because they argue for an unlimited right of individuals to appropriate those resources. This point is in contradiction with the systemic nature of scarcity and with the absence of substitutes for some essential resources (chapters 2 and 3). The liberal doctrine of neutrality, as associated with the harm principle, is unsuitable when addressing global environmental issues like climate change. Causal mechanisms leading to environmental harm are indirect and diffuse, which prevents the assignation of individual responsibilities. This makes the justification of coercive environmental policies difficult (chapter 4). These difficulties stem above all from two characteristic features of libertarian and liberal doctrines: their atomistic social ontology and their conception of freedom as liberty of choice. Philip Pettit's neo- republicanism on the other hand is able to address these problems thanks to its holist social ontology and its conception of liberty as non-domination. This doctrine offers a conception of liberty compatible with environmental limits and theoretical resources able to justify demanding environmental policies without sacrificing too much in terms of liberty (chapter 5).
Resumo:
D. Marguerat parle de la résurrection de Jésus et de celle promise à chacun après sa mort à travers ce que le Nouveau Testament essaie de dire au-delà des mots.
Resumo:
Une cohorte de 6477 nouveau-nés de mères résidant dans le Canton du Vaud a été recrutée pendant une année (1993-1994) dans les 18 maternités vaudoises et celle de Châtel-St-Denis. L'objectif de l'étude EDEN (Etude du DEveloppement des Nouveau-nés) est de calculer l'incidence et la prévalence des affections chroniques de toute étiologie et pour toutes les catégories de poids de naissance, à 18 mois et à 4 ans. Ce rapport présente la méthode de l'étude et l'état de santé à la naissance. Cinq critères de sélection non exclusifs ont permis de cibler un groupe de nouveau-nés à haut risque de développer une affection chronique (12% des nouveau-nés, n=760): (1) le petit poids de naissance (n=408, 6.5% des naissances vivantes); (2) une malformation congénitale ou une maladie génétique (n=157, 2.4% des naissances vivantes); (3) une affection susceptible de devenir chronique liée à une utilisation importante des services de soins au cours de la petite enfance (n=61, 0.9% des naissances vivantes); (4) le transfert aux soins intensifs (n=287, 4.4% des naissances vivantes); (5) des difficultés sociales importantes (n=105, 1.6% des naissances vivantes). Le taux d'acceptation de l'étude par les parents est bon (90%). En tout 5.9% des enfants étaient prématurés et 2.2 pour mille sont décédés à < ou = à 7 jours de vie. Selon les indicateurs à disposition, le réseau vaudois répond efficacement aux besoins en soins obstétricaux et néonatals La durée moyenne du séjour hospitalier était de 7 jours, avec des variations importantes. L'influence néfaste du tabagisme pendant la grossesse se manifeste par un doublement du risque de poids de naissance < ou = à 2500g chez les fumeuses; 24% des femmes ont fumé pendant leur grossesse, pour les trois quarts jusqu'à l'accouchement. Un grand potentiel de prévention subsiste dans ce domaine. L'examen des enfants à 18 mois, terminé fin mai 1996, ainsi que celui des 4 ans, permettront de valider les critères de sélection à la naissance comme indicateurs précoces de problèmes de santé chroniques dans la petite enfance. Les nouveaux cas d'affection chronique seront alors signalés par les pédiatres et les médecins spécialistes. [Auteurs, p. 9]
Resumo:
RésuméAu tournant du Ve siècle avant J.-C., au moment de l'établissement de la démocratie à Athènes, apparaissent une série d'images qui mettent en scène des femmes armées de la double hache : Clytemnestre s'en sert comme arme lors du meurtre d'Agamemnon, Ino la brandit contre son fils, et elle fait également partie de la panoplie des femmes thraces à la poursuite d'Orphée. Ces femmes en proie à une folie meurtrière la détournent ainsi de son utilisation première, celle d'instrument employé exclusivement par un homme pour abattre le boeuf lors des sacrifices civiques qui réunissent la communauté des citoyens. Curieusement, la double hache n'apparaît jamais dans ces scènes où la mise à mort de l'animal est éludée.L'exploration de ces images questionne le problème du pouvoir et de la répartition des rôles entre hommes et femmes en Grèce classique.
Resumo:
2. Plan du travail Pour atteindre nos objectifs, notre travail sera essentiellement divisé en trois grandes sections. La première partie nous sert principalement à esquisser notre démarche et les enjeux de notre entreprise, ainsi qu'à la situer au sein d'un cadre théorique - la linguistique interactionnelle - combinant l'analyse grammaticale et l'analyse conversationnelle. Nous procéderons d'abord à une brève description de l'analyse conversationnelle ethnométhodologique, ensuite à celle du courant Interaction and Grammar. Dans le cadre de ces descriptions, nous illustrerons par des exemples les liens entre la grammaire et l'interaction sociale tels qu'ils ont été élaborés dans de nombreuses recherches dans le domaine. Finalement, nous résumerons nos objectifs et nos procédures d'analyse. La deuxième partie consiste essentiellement en une discussion et une problématisation de l'état de la recherche dans la littérature. L'exposé montrera les principaux problèmes que la pseudo-clivée pose aux différents niveaux d'analyse. Nous y traiterons des problèmes de définition et de délimitation de la construction en question au niveau syntaxique et sémantique. Nous enchaînerons avec l'exposé de l'état de la recherche au niveau pragmatique et discursif Cette discussion nous permettra de problématiser à la fois la fonction principale dévolue à la pseudo-clivée et l'établissement de la relation entre forme et fonction. Finalement, nous aborderons certains aspects dont nous ne nous occuperons pas ou seulement partiellement dans notre travail. Le résumé de cette deuxième partie nous servira à récapituler les problèmes soulevés par la pseudo-clivée française. La troisième partie - empirique et analytique - constitue la partie centrale de ce travail. Elle exposera nos résultats à travers l'analyse d'exemples qui exhibent les propriétés typiques des occurrences retenues dans notre corpus. Cette partie est donc consacrée aux formes, aux fonctionnements syntaxico-séquentiels et aux fonctions effectivement rencontrées dans nos données pour aboutir à une description de ses propriétés interactives et à une typologie compatible avec les usages interactifs réels. Après l'exposé de ce qui nous semble le plus typique dans l'usage interactif effectif de la pseudo-clivée par les interlocuteurs, nous nous dirigerons plus particulièrement vers la délimitation et la localisation de notre objet d'analyse, d'une part, par rapport à d'autres constructions (clivées, pseudo-clivées inversées, dislocations à gauche), et d'autre part, par rapport à d'autres unions d'unités qui n'ont pas le statut de construction en usage. Finalement, nous tenterons d'intégrer nos observations dans une description cohérente du "phénomène pseudo-clivé" dans l'usage des locuteurs. De plus, nous présenterons - sur la base de nos résultats - des réponses ou des éléments de réponse aux problématiques soulevées par notre objet d'analyse telles que nous les avons élaborées et discutées dans la partie II de ce travail. Nous terminerons par une discussion sur les apports de notre démarche, ainsi qu'à une évaluation de notre conception spécifique des faits de grammaire, et plus particulièrement d'une construction syntaxique (partie IV). Nous indiquerons des pistes de recherche possibles à suivre en fonction de nos résultats. Parmi d'éventuelles investigations futures, un accent particulier sera mis sur les aspects prosodiques et la recherche comparative.
Resumo:
Résumé Le μ-calcul est une extension de la logique modale par des opérateurs de point fixe. Dans ce travail nous étudions la complexité de certains fragments de cette logique selon deux points de vue, différents mais étroitement liés: l'un syntaxique (ou combinatoire) et l'autre topologique. Du point de vue syn¬taxique, les propriétés définissables dans ce formalisme sont classifiées selon la complexité combinatoire des formules de cette logique, c'est-à-dire selon le nombre d'alternances des opérateurs de point fixe. Comparer deux ensembles de modèles revient ainsi à comparer la complexité syntaxique des formules as¬sociées. Du point de vue topologique, les propriétés définissables dans cette logique sont comparées à l'aide de réductions continues ou selon leurs positions dans la hiérarchie de Borel ou dans celle projective. Dans la première partie de ce travail nous adoptons le point de vue syntax¬ique afin d'étudier le comportement du μ-calcul sur des classes restreintes de modèles. En particulier nous montrons que: (1) sur la classe des modèles symétriques et transitifs le μ-calcul est aussi expressif que la logique modale; (2) sur la classe des modèles transitifs, toute propriété définissable par une formule du μ-calcul est définissable par une formule sans alternance de points fixes, (3) sur la classe des modèles réflexifs, il y a pour tout η une propriété qui ne peut être définie que par une formule du μ-calcul ayant au moins η alternances de points fixes, (4) sur la classe des modèles bien fondés et transitifs le μ-calcul est aussi expressif que la logique modale. Le fait que le μ-calcul soit aussi expressif que la logique modale sur la classe des modèles bien fondés et transitifs est bien connu. Ce résultat est en ef¬fet la conséquence d'un théorème de point fixe prouvé indépendamment par De Jongh et Sambin au milieu des années 70. La preuve que nous donnons de l'effondrement de l'expressivité du μ-calcul sur cette classe de modèles est néanmoins indépendante de ce résultat. Par la suite, nous étendons le langage du μ-calcul en permettant aux opérateurs de point fixe de lier des occurrences négatives de variables libres. En montrant alors que ce formalisme est aussi ex¬pressif que le fragment modal, nous sommes en mesure de fournir une nouvelle preuve du théorème d'unicité des point fixes de Bernardi, De Jongh et Sambin et une preuve constructive du théorème d'existence de De Jongh et Sambin. RÉSUMÉ Pour ce qui concerne les modèles transitifs, du point de vue topologique cette fois, nous prouvons que la logique modale correspond au fragment borélien du μ-calcul sur cette classe des systèmes de transition. Autrement dit, nous vérifions que toute propriété définissable des modèles transitifs qui, du point de vue topologique, est une propriété borélienne, est nécessairement une propriété modale, et inversement. Cette caractérisation du fragment modal découle du fait que nous sommes en mesure de montrer que, modulo EF-bisimulation, un ensemble d'arbres est définissable dans la logique temporelle Ε F si et seulement il est borélien. Puisqu'il est possible de montrer que ces deux propriétés coïncident avec une caractérisation effective de la définissabilité dans la logique Ε F dans le cas des arbres à branchement fini donnée par Bojanczyk et Idziaszek [24], nous obtenons comme corollaire leur décidabilité. Dans une deuxième partie, nous étudions la complexité topologique d'un sous-fragment du fragment sans alternance de points fixes du μ-calcul. Nous montrons qu'un ensemble d'arbres est définissable par une formule de ce frag¬ment ayant au moins η alternances si et seulement si cette propriété se trouve au moins au n-ième niveau de la hiérarchie de Borel. Autrement dit, nous vérifions que pour ce fragment du μ-calcul, les points de vue topologique et combina- toire coïncident. De plus, nous décrivons une procédure effective capable de calculer pour toute propriété définissable dans ce langage sa position dans la hiérarchie de Borel, et donc le nombre d'alternances de points fixes nécessaires à la définir. Nous nous intéressons ensuite à la classification des ensembles d'arbres par réduction continue, et donnons une description effective de l'ordre de Wadge de la classe des ensembles d'arbres définissables dans le formalisme considéré. En particulier, la hiérarchie que nous obtenons a une hauteur (ωω)ω. Nous complétons ces résultats en décrivant un algorithme permettant de calculer la position dans cette hiérarchie de toute propriété définissable.
Resumo:
RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.
Resumo:
ABSTRACT : During my SNSF-funded Ph.D. thesis project, I studied the evolution of redox conditions and organic-carbon preservation in the western Tethyan realm during three major positive excursions in the Cretaceous δ13C record, corresponding to the Valanginian, Early Aptian and Late Cenomanian. These periods were characterized by important global environmental and climate change, which was associated with perturbations in the carbon cycle. For the period of the Valanginian δ13C excursion, total organic carbon (TOC) contents and the quality of preserved organic matter are typical of oxic pelagic settings in the western Tethys. This is confirmed by the absence of major excursions in the stratigraphic distribution of RSTE during the δ13C shift. Published TOC data from other parts of the Valanginian oceans indicate that dys- to anaerobic zones were restricted to marginal seas within the Atlantic and Southern Ocean, and to the Pacific. Phosphorus (P) and mineralogical contents suggest a stepwise climatic evolution during the Valanginian, with a humid and warm climate prior to the δ13C shift leading to an increase in continental runoff. During the δ13C shift, a decrease in detrital input and P contents suggests a change in the climate towards more and conditions. During the early Aptian oceanic anoxic event (OAE 1a), a general increase followed by a rapid decrease in P contents suggests enhanced nutrient input at the beginning of OAE 1a. The return to lower values during OAE 1 a, associated with an increase in RSTE contents, may have been related to the weakened capacity to retain P in the sedimentary reservoir due to bottom-water oxygen depletion. In basinal settings, the RSTE distribution indicates well-developed anoxic conditions during OAE la, whereas in the shallower-water environments, conditions were oxic to suboxic, rather than anoxic. Furthermore, in the deeper part of the Tethys, two distinct enrichments have been observed, indicating fluctuations in the intensity of water column anoxia during the δ73C excursion. We also studied the effect of the end-Cenomanian oceanic anoxic event (OAE 2) on an expanded section in the Chrummflueschlucht (E of Euthal, Ct Switzerland). The goal here was to identify paleoceanographic and paleoenvironmental conditions during OAE 2 in this part of the northern Tethyan margin. The results show that this section is one of the most complete sections for the Cenomanian-Turonian boundary interval known from the Helvetic realm, despite a small hiatus between sediments corresponding to peaks 1 and 2 in the δ13C record. The evolution of P contents points to an increase in the input of this nutrient at the onset of OAE 2. The trends in RSTE contents show, however, that this part of the Helvetic realm was not affected by a strong depletion in oxygen conditions during OAE 2, despite its hemipelagic position. A further goal of this project was to submit the samples to a total extraction method (a combined HF/HNO3/HCI acid digestion) and compare the results obtained by the partial HNO3 acid extraction in order to standardize the analytical prócedures in the extraction of RSTE. The obtained results for samples of OAE 1 a suggest that RSTE trends using the partial HNO3 digestion are very comparable to those obtained by the total digestion method and subsequently normalized with regards to AI contents. RÉSUMÉ : Durant ce projet de thèse, financé par le Swiss National Science Funding (SNSF), j'ai étudié l'évolution des conditions redox et de la préservation de carbone organique dans le domnaine ouesttéthysien pendant trois excursions majeures du δ13C au Crétacé correspondant au Valanginien, à l'Aptien inférieur et à la limite Cénomanien-Turonien. Ces périodes sont caractérisées par des changements climatiques et environnementaux globaux associés à des perturbations dans le cylce du carbone. Pour L'excursion positive en δ13C du Valanginien, les analyses du carbone organique total (COT) et les observations palynologiques du domaine téthysien ont présenté des indications d'environnement pélagique relativementbienoxygéné. L'absence d'enrichissements en éléments traces sensibles aux conditions redox (TE) pendant l'excursion positive en δ13C confirme ces interprétations. Les données publiées de COT dans d'autres partie du globe indiquent cependant l'existence de conditions dys- à anaérobiques dans certains bassins restreints de l'Atlantique, l'Océan Austral et du Pacifique. L'évolution du phosphore (P) et la composition minéralogique des sédiments semblent indiquer un climat relativement chaud et humide avant l'excursion en δ13C entraînant une augmentation de l'altération continentale. Pendant le shift isotopique, une diminution des apports détritiques et du P suggèrent une transition vers des conditions plus arides. À l'Aptien Inférieur, le début de l'événement anoxique (OAE 1a) est marqué par une augmentation générale du P dans les sédiments indiquant une augmentation du niveau trophique à la base de l'excursion isotopique. Durant l'événement anoxique, les sédiments sont relativement appauvris en P. Cette diminution rapide associée à des enrichissements en TE est probablement liée à une remobilisation plus importante du P lors de la mise en place de conditions anoxiques dans les eaux de fond. Dans les environnements de bassin, le comportement des TE (enrichissements bien marqués) attestent de conditions réductrices bien marquées alors que dans les environnements moins profonds, les conditions semblent plutôt oxiques à dysoxiques. De plus, deux niveaux d'enrichissement en TE ont été observés dans la partie plus profonde de la Téthys, indiquant des fluctuations assez rapides dans l'intensité de l'anoxie de la colonne d'eau. Nous avons ensuite étudié les effets de l'événement anoxique de la fin du Cenomanien (OAE 2) dans un basin marginal de la marge nord de la Téthys avec la coupe de Chrummflueschlucht (à l'est de Euthal, Ct Schwyz). Les résultats ont montré que cette coupe présente un des enregistrements sédimentaires des plus complets de l'OAE 2 dans le domaine helvétique malgré un hiatus entre le pic 1 et 2 de l'excursion en δ13C. L'évolution du P montre une augmentation au début de l'OAE 2. Cependant, la distribution des TE indique que cette région n'a pas été affectée par des conditions réductrices trop importantes. Un second aspect de ce travail a été l'étude des différentes méthodes sur l'analyse de la distribution des TE. Des échantillons de l'OAE 1a ont été soumis à deux types d'extractions, l'une dite «totale » (attaque combinée d'acides HF/HNO3/HCI) et l'autre dite partielle » (HNO3). Les résultats obtenus suggèrent que les courbes de tendances des TE acquises par extraction partielle sont semblables à celle obtenues par extraction totale et normalisées par l'AI.