1000 resultados para Fresnel cogenerazione CPV celle multigiunzione
Resumo:
La question centrale de ce travail est celle de la relation entre finitude environnementale et liberté individuelle. Par finitude environnementale il faut entendre l'ensemble des contraintes écologiques variées qui posent des limites à l'action humaine. Celles-ci sont de deux types généraux : les limites de disponibilité des ressources naturelles et: les limites de charge des écosystèmes et des grands cycles biogéochimiques globaux (chapitre 1). La thèse défendue ici est que les conceptions libertariennes et libérales de la liberté sont en conflit avec la nécessité de prendre en compte de telles limites et qu'une approche néo-républicaine est mieux à même de répondre à ces enjeux écologiques. Les théories libertariennes, de droite comme de gauche, sont inadaptées à la prise en compte de la finitude des ressources naturelles car elles maintiennent un droit à l'appropriation illimitée de ces dernières par les individus. Ce point est en contradiction avec le caractère systémique de la rareté et avec l'absence de substitut pour certaines ressources indispensables à la poursuite d'une vie décente (chapitres 2 et 3). La théorie libérale de la neutralité, appuyée par le principe du tort (harm principle), est quant à elle inadaptée à la prise en compte des problèmes environnementaux globaux comme le changement climatique. Les mécanismes causaux menant à la création de dommages environnementaux sont en effet indirects et diffus, ce qui empêche l'assignation de responsabilités au niveau individuel. La justification de politiques environnementales contraignantes s'en trouve donc mise en péril (chapitre 4). Ces difficultés proviennent avant tout de deux traits caractéristiques de ces doctrines : leur ontologie sociale atomiste et leur conception de la liberté comme liberté de choix. Le néo-républicanisme de Philip Pettit permet de répondre à ces deux problèmes grâce à son ontologie holiste et à sa conception de la liberté comme non- domination. Cette théorie permet donc à la fois de proposer une conception de la liberté compatible avec la finitude environnementale et de justifier des politiques environnementales exigeantes, sans que le sacrifice en termes de liberté n'apparaisse trop important (chapitre 5). - The centrai issue of this work is that of the relationship between environmental finiteness and individual liberty. By environmental finiteness one should understand the set of diverse ecological constraints that limit human action. These limits are of two general kinds: on the one hand the availability of natural resources, and on the other hand the carrying capacity of ecosystems and biogeochemical cycles (chapter 1}. The thesis defended here is that libertarian and liberal conceptions of liberty conflict with the necessity to take such limits into account, and that a neo-republican approach is best suited to address environmental issues. Libertarian theories, right-wing as well as left-wing, are in particular not able to take resource scarcity into account because they argue for an unlimited right of individuals to appropriate those resources. This point is in contradiction with the systemic nature of scarcity and with the absence of substitutes for some essential resources (chapters 2 and 3). The liberal doctrine of neutrality, as associated with the harm principle, is unsuitable when addressing global environmental issues like climate change. Causal mechanisms leading to environmental harm are indirect and diffuse, which prevents the assignation of individual responsibilities. This makes the justification of coercive environmental policies difficult (chapter 4). These difficulties stem above all from two characteristic features of libertarian and liberal doctrines: their atomistic social ontology and their conception of freedom as liberty of choice. Philip Pettit's neo- republicanism on the other hand is able to address these problems thanks to its holist social ontology and its conception of liberty as non-domination. This doctrine offers a conception of liberty compatible with environmental limits and theoretical resources able to justify demanding environmental policies without sacrificing too much in terms of liberty (chapter 5).
Resumo:
D. Marguerat parle de la résurrection de Jésus et de celle promise à chacun après sa mort à travers ce que le Nouveau Testament essaie de dire au-delà des mots.
Resumo:
Une cohorte de 6477 nouveau-nés de mères résidant dans le Canton du Vaud a été recrutée pendant une année (1993-1994) dans les 18 maternités vaudoises et celle de Châtel-St-Denis. L'objectif de l'étude EDEN (Etude du DEveloppement des Nouveau-nés) est de calculer l'incidence et la prévalence des affections chroniques de toute étiologie et pour toutes les catégories de poids de naissance, à 18 mois et à 4 ans. Ce rapport présente la méthode de l'étude et l'état de santé à la naissance. Cinq critères de sélection non exclusifs ont permis de cibler un groupe de nouveau-nés à haut risque de développer une affection chronique (12% des nouveau-nés, n=760): (1) le petit poids de naissance (n=408, 6.5% des naissances vivantes); (2) une malformation congénitale ou une maladie génétique (n=157, 2.4% des naissances vivantes); (3) une affection susceptible de devenir chronique liée à une utilisation importante des services de soins au cours de la petite enfance (n=61, 0.9% des naissances vivantes); (4) le transfert aux soins intensifs (n=287, 4.4% des naissances vivantes); (5) des difficultés sociales importantes (n=105, 1.6% des naissances vivantes). Le taux d'acceptation de l'étude par les parents est bon (90%). En tout 5.9% des enfants étaient prématurés et 2.2 pour mille sont décédés à < ou = à 7 jours de vie. Selon les indicateurs à disposition, le réseau vaudois répond efficacement aux besoins en soins obstétricaux et néonatals La durée moyenne du séjour hospitalier était de 7 jours, avec des variations importantes. L'influence néfaste du tabagisme pendant la grossesse se manifeste par un doublement du risque de poids de naissance < ou = à 2500g chez les fumeuses; 24% des femmes ont fumé pendant leur grossesse, pour les trois quarts jusqu'à l'accouchement. Un grand potentiel de prévention subsiste dans ce domaine. L'examen des enfants à 18 mois, terminé fin mai 1996, ainsi que celui des 4 ans, permettront de valider les critères de sélection à la naissance comme indicateurs précoces de problèmes de santé chroniques dans la petite enfance. Les nouveaux cas d'affection chronique seront alors signalés par les pédiatres et les médecins spécialistes. [Auteurs, p. 9]
Resumo:
RésuméAu tournant du Ve siècle avant J.-C., au moment de l'établissement de la démocratie à Athènes, apparaissent une série d'images qui mettent en scène des femmes armées de la double hache : Clytemnestre s'en sert comme arme lors du meurtre d'Agamemnon, Ino la brandit contre son fils, et elle fait également partie de la panoplie des femmes thraces à la poursuite d'Orphée. Ces femmes en proie à une folie meurtrière la détournent ainsi de son utilisation première, celle d'instrument employé exclusivement par un homme pour abattre le boeuf lors des sacrifices civiques qui réunissent la communauté des citoyens. Curieusement, la double hache n'apparaît jamais dans ces scènes où la mise à mort de l'animal est éludée.L'exploration de ces images questionne le problème du pouvoir et de la répartition des rôles entre hommes et femmes en Grèce classique.
Resumo:
2. Plan du travail Pour atteindre nos objectifs, notre travail sera essentiellement divisé en trois grandes sections. La première partie nous sert principalement à esquisser notre démarche et les enjeux de notre entreprise, ainsi qu'à la situer au sein d'un cadre théorique - la linguistique interactionnelle - combinant l'analyse grammaticale et l'analyse conversationnelle. Nous procéderons d'abord à une brève description de l'analyse conversationnelle ethnométhodologique, ensuite à celle du courant Interaction and Grammar. Dans le cadre de ces descriptions, nous illustrerons par des exemples les liens entre la grammaire et l'interaction sociale tels qu'ils ont été élaborés dans de nombreuses recherches dans le domaine. Finalement, nous résumerons nos objectifs et nos procédures d'analyse. La deuxième partie consiste essentiellement en une discussion et une problématisation de l'état de la recherche dans la littérature. L'exposé montrera les principaux problèmes que la pseudo-clivée pose aux différents niveaux d'analyse. Nous y traiterons des problèmes de définition et de délimitation de la construction en question au niveau syntaxique et sémantique. Nous enchaînerons avec l'exposé de l'état de la recherche au niveau pragmatique et discursif Cette discussion nous permettra de problématiser à la fois la fonction principale dévolue à la pseudo-clivée et l'établissement de la relation entre forme et fonction. Finalement, nous aborderons certains aspects dont nous ne nous occuperons pas ou seulement partiellement dans notre travail. Le résumé de cette deuxième partie nous servira à récapituler les problèmes soulevés par la pseudo-clivée française. La troisième partie - empirique et analytique - constitue la partie centrale de ce travail. Elle exposera nos résultats à travers l'analyse d'exemples qui exhibent les propriétés typiques des occurrences retenues dans notre corpus. Cette partie est donc consacrée aux formes, aux fonctionnements syntaxico-séquentiels et aux fonctions effectivement rencontrées dans nos données pour aboutir à une description de ses propriétés interactives et à une typologie compatible avec les usages interactifs réels. Après l'exposé de ce qui nous semble le plus typique dans l'usage interactif effectif de la pseudo-clivée par les interlocuteurs, nous nous dirigerons plus particulièrement vers la délimitation et la localisation de notre objet d'analyse, d'une part, par rapport à d'autres constructions (clivées, pseudo-clivées inversées, dislocations à gauche), et d'autre part, par rapport à d'autres unions d'unités qui n'ont pas le statut de construction en usage. Finalement, nous tenterons d'intégrer nos observations dans une description cohérente du "phénomène pseudo-clivé" dans l'usage des locuteurs. De plus, nous présenterons - sur la base de nos résultats - des réponses ou des éléments de réponse aux problématiques soulevées par notre objet d'analyse telles que nous les avons élaborées et discutées dans la partie II de ce travail. Nous terminerons par une discussion sur les apports de notre démarche, ainsi qu'à une évaluation de notre conception spécifique des faits de grammaire, et plus particulièrement d'une construction syntaxique (partie IV). Nous indiquerons des pistes de recherche possibles à suivre en fonction de nos résultats. Parmi d'éventuelles investigations futures, un accent particulier sera mis sur les aspects prosodiques et la recherche comparative.
Resumo:
Résumé Le μ-calcul est une extension de la logique modale par des opérateurs de point fixe. Dans ce travail nous étudions la complexité de certains fragments de cette logique selon deux points de vue, différents mais étroitement liés: l'un syntaxique (ou combinatoire) et l'autre topologique. Du point de vue syn¬taxique, les propriétés définissables dans ce formalisme sont classifiées selon la complexité combinatoire des formules de cette logique, c'est-à-dire selon le nombre d'alternances des opérateurs de point fixe. Comparer deux ensembles de modèles revient ainsi à comparer la complexité syntaxique des formules as¬sociées. Du point de vue topologique, les propriétés définissables dans cette logique sont comparées à l'aide de réductions continues ou selon leurs positions dans la hiérarchie de Borel ou dans celle projective. Dans la première partie de ce travail nous adoptons le point de vue syntax¬ique afin d'étudier le comportement du μ-calcul sur des classes restreintes de modèles. En particulier nous montrons que: (1) sur la classe des modèles symétriques et transitifs le μ-calcul est aussi expressif que la logique modale; (2) sur la classe des modèles transitifs, toute propriété définissable par une formule du μ-calcul est définissable par une formule sans alternance de points fixes, (3) sur la classe des modèles réflexifs, il y a pour tout η une propriété qui ne peut être définie que par une formule du μ-calcul ayant au moins η alternances de points fixes, (4) sur la classe des modèles bien fondés et transitifs le μ-calcul est aussi expressif que la logique modale. Le fait que le μ-calcul soit aussi expressif que la logique modale sur la classe des modèles bien fondés et transitifs est bien connu. Ce résultat est en ef¬fet la conséquence d'un théorème de point fixe prouvé indépendamment par De Jongh et Sambin au milieu des années 70. La preuve que nous donnons de l'effondrement de l'expressivité du μ-calcul sur cette classe de modèles est néanmoins indépendante de ce résultat. Par la suite, nous étendons le langage du μ-calcul en permettant aux opérateurs de point fixe de lier des occurrences négatives de variables libres. En montrant alors que ce formalisme est aussi ex¬pressif que le fragment modal, nous sommes en mesure de fournir une nouvelle preuve du théorème d'unicité des point fixes de Bernardi, De Jongh et Sambin et une preuve constructive du théorème d'existence de De Jongh et Sambin. RÉSUMÉ Pour ce qui concerne les modèles transitifs, du point de vue topologique cette fois, nous prouvons que la logique modale correspond au fragment borélien du μ-calcul sur cette classe des systèmes de transition. Autrement dit, nous vérifions que toute propriété définissable des modèles transitifs qui, du point de vue topologique, est une propriété borélienne, est nécessairement une propriété modale, et inversement. Cette caractérisation du fragment modal découle du fait que nous sommes en mesure de montrer que, modulo EF-bisimulation, un ensemble d'arbres est définissable dans la logique temporelle Ε F si et seulement il est borélien. Puisqu'il est possible de montrer que ces deux propriétés coïncident avec une caractérisation effective de la définissabilité dans la logique Ε F dans le cas des arbres à branchement fini donnée par Bojanczyk et Idziaszek [24], nous obtenons comme corollaire leur décidabilité. Dans une deuxième partie, nous étudions la complexité topologique d'un sous-fragment du fragment sans alternance de points fixes du μ-calcul. Nous montrons qu'un ensemble d'arbres est définissable par une formule de ce frag¬ment ayant au moins η alternances si et seulement si cette propriété se trouve au moins au n-ième niveau de la hiérarchie de Borel. Autrement dit, nous vérifions que pour ce fragment du μ-calcul, les points de vue topologique et combina- toire coïncident. De plus, nous décrivons une procédure effective capable de calculer pour toute propriété définissable dans ce langage sa position dans la hiérarchie de Borel, et donc le nombre d'alternances de points fixes nécessaires à la définir. Nous nous intéressons ensuite à la classification des ensembles d'arbres par réduction continue, et donnons une description effective de l'ordre de Wadge de la classe des ensembles d'arbres définissables dans le formalisme considéré. En particulier, la hiérarchie que nous obtenons a une hauteur (ωω)ω. Nous complétons ces résultats en décrivant un algorithme permettant de calculer la position dans cette hiérarchie de toute propriété définissable.
Resumo:
RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.
Resumo:
ABSTRACT : During my SNSF-funded Ph.D. thesis project, I studied the evolution of redox conditions and organic-carbon preservation in the western Tethyan realm during three major positive excursions in the Cretaceous δ13C record, corresponding to the Valanginian, Early Aptian and Late Cenomanian. These periods were characterized by important global environmental and climate change, which was associated with perturbations in the carbon cycle. For the period of the Valanginian δ13C excursion, total organic carbon (TOC) contents and the quality of preserved organic matter are typical of oxic pelagic settings in the western Tethys. This is confirmed by the absence of major excursions in the stratigraphic distribution of RSTE during the δ13C shift. Published TOC data from other parts of the Valanginian oceans indicate that dys- to anaerobic zones were restricted to marginal seas within the Atlantic and Southern Ocean, and to the Pacific. Phosphorus (P) and mineralogical contents suggest a stepwise climatic evolution during the Valanginian, with a humid and warm climate prior to the δ13C shift leading to an increase in continental runoff. During the δ13C shift, a decrease in detrital input and P contents suggests a change in the climate towards more and conditions. During the early Aptian oceanic anoxic event (OAE 1a), a general increase followed by a rapid decrease in P contents suggests enhanced nutrient input at the beginning of OAE 1a. The return to lower values during OAE 1 a, associated with an increase in RSTE contents, may have been related to the weakened capacity to retain P in the sedimentary reservoir due to bottom-water oxygen depletion. In basinal settings, the RSTE distribution indicates well-developed anoxic conditions during OAE la, whereas in the shallower-water environments, conditions were oxic to suboxic, rather than anoxic. Furthermore, in the deeper part of the Tethys, two distinct enrichments have been observed, indicating fluctuations in the intensity of water column anoxia during the δ73C excursion. We also studied the effect of the end-Cenomanian oceanic anoxic event (OAE 2) on an expanded section in the Chrummflueschlucht (E of Euthal, Ct Switzerland). The goal here was to identify paleoceanographic and paleoenvironmental conditions during OAE 2 in this part of the northern Tethyan margin. The results show that this section is one of the most complete sections for the Cenomanian-Turonian boundary interval known from the Helvetic realm, despite a small hiatus between sediments corresponding to peaks 1 and 2 in the δ13C record. The evolution of P contents points to an increase in the input of this nutrient at the onset of OAE 2. The trends in RSTE contents show, however, that this part of the Helvetic realm was not affected by a strong depletion in oxygen conditions during OAE 2, despite its hemipelagic position. A further goal of this project was to submit the samples to a total extraction method (a combined HF/HNO3/HCI acid digestion) and compare the results obtained by the partial HNO3 acid extraction in order to standardize the analytical prócedures in the extraction of RSTE. The obtained results for samples of OAE 1 a suggest that RSTE trends using the partial HNO3 digestion are very comparable to those obtained by the total digestion method and subsequently normalized with regards to AI contents. RÉSUMÉ : Durant ce projet de thèse, financé par le Swiss National Science Funding (SNSF), j'ai étudié l'évolution des conditions redox et de la préservation de carbone organique dans le domnaine ouesttéthysien pendant trois excursions majeures du δ13C au Crétacé correspondant au Valanginien, à l'Aptien inférieur et à la limite Cénomanien-Turonien. Ces périodes sont caractérisées par des changements climatiques et environnementaux globaux associés à des perturbations dans le cylce du carbone. Pour L'excursion positive en δ13C du Valanginien, les analyses du carbone organique total (COT) et les observations palynologiques du domaine téthysien ont présenté des indications d'environnement pélagique relativementbienoxygéné. L'absence d'enrichissements en éléments traces sensibles aux conditions redox (TE) pendant l'excursion positive en δ13C confirme ces interprétations. Les données publiées de COT dans d'autres partie du globe indiquent cependant l'existence de conditions dys- à anaérobiques dans certains bassins restreints de l'Atlantique, l'Océan Austral et du Pacifique. L'évolution du phosphore (P) et la composition minéralogique des sédiments semblent indiquer un climat relativement chaud et humide avant l'excursion en δ13C entraînant une augmentation de l'altération continentale. Pendant le shift isotopique, une diminution des apports détritiques et du P suggèrent une transition vers des conditions plus arides. À l'Aptien Inférieur, le début de l'événement anoxique (OAE 1a) est marqué par une augmentation générale du P dans les sédiments indiquant une augmentation du niveau trophique à la base de l'excursion isotopique. Durant l'événement anoxique, les sédiments sont relativement appauvris en P. Cette diminution rapide associée à des enrichissements en TE est probablement liée à une remobilisation plus importante du P lors de la mise en place de conditions anoxiques dans les eaux de fond. Dans les environnements de bassin, le comportement des TE (enrichissements bien marqués) attestent de conditions réductrices bien marquées alors que dans les environnements moins profonds, les conditions semblent plutôt oxiques à dysoxiques. De plus, deux niveaux d'enrichissement en TE ont été observés dans la partie plus profonde de la Téthys, indiquant des fluctuations assez rapides dans l'intensité de l'anoxie de la colonne d'eau. Nous avons ensuite étudié les effets de l'événement anoxique de la fin du Cenomanien (OAE 2) dans un basin marginal de la marge nord de la Téthys avec la coupe de Chrummflueschlucht (à l'est de Euthal, Ct Schwyz). Les résultats ont montré que cette coupe présente un des enregistrements sédimentaires des plus complets de l'OAE 2 dans le domaine helvétique malgré un hiatus entre le pic 1 et 2 de l'excursion en δ13C. L'évolution du P montre une augmentation au début de l'OAE 2. Cependant, la distribution des TE indique que cette région n'a pas été affectée par des conditions réductrices trop importantes. Un second aspect de ce travail a été l'étude des différentes méthodes sur l'analyse de la distribution des TE. Des échantillons de l'OAE 1a ont été soumis à deux types d'extractions, l'une dite «totale » (attaque combinée d'acides HF/HNO3/HCI) et l'autre dite partielle » (HNO3). Les résultats obtenus suggèrent que les courbes de tendances des TE acquises par extraction partielle sont semblables à celle obtenues par extraction totale et normalisées par l'AI.
Resumo:
Abstract : Copy number variation (CNV) of DNA segments has recently gained considerable interest as a source of genetic variation likely to play a role in phenotypic diversity and evolution. Much effort has been put into the identification and mapping of regions that vary in copy number among seemingly normal individuals, both in humans and in a number of model organisms, using both bioinformatic and hybridization-based methods. Synteny studies suggest the existence of CNV hotspots in mammalian genomes, often in connection with regions of segmental duplication. CNV alleles can be in equilibrium within a population, but can also arise de novo between generations, illustrating the highly dynamic nature of these regions. A small number of studies have assessed the effect of CNV on single loci, however, at the genome-wide scale, the functional impact of CNV remains poorly studied. We have explored the influence of CNV on gene expression, first using the Williams-Beuren syndrome (WBS) associated deletion as a model, and second at the genome-wide scale in inbred mouse strains. We found that the WBS deletion influences the expression levels not only of the hemizygous genes, but also affects the euploid genes mapping nearby. Consistently, on a genome wide scale we observe that CNV genes are expressed at more variable levels than genes that do not vary in copy number. Likewise, CNVs influence the relative expression levels of genes that map to the flank of the genome rearrangements, thus globally influencing tissue transcriptomes. Further studies are warranted to complete cataloguing and fine mapping of CNV regions, as well as to elucidate the different mechanisms by which CNVs influence gene expression. Résumé : La variation en nombre de copies (copy number variation ou CNV) de segments d'ADN suscite un intérêt en tant que variation génétique susceptible de jouer un r81e dans la diversité phénotypique et l'évolution. Les régions variables en nombre de copies parmi des individus apparemment normaux ont été cartographiées et cataloguées au moyen de puces à ADN et d'analyse bioinformatique. L'étude de la synténie entre plusieurs espèces de mammifères laisse supposer l'existence de régions à haut taux de variation, souvent liées à des duplications segmentaires. Les allèles CNV peuvent être en équilibre au sein d'une population ou peuvent apparaître de novo. Ces faits illustrent la nature hautement dynamique de ces régions. Quelques études se sont penchées sur l'effet de la variation en nombre de copies de loci isolés, cependant l'impact de ce phénomène n'a pas été étudié à l'échelle génomique. Nous avons examiné l'influence des CNV sur l'expression des gènes. Dans un premier temps nous avons utilisé la délétion associée au syndrome de Williams-Beuren (WBS), puis, dans un second temps, nous avons poursuivi notre étude à l'échelle du génome, dans des lignées consanguines de souris. Nous avons établi que la délétion WBS influence l'expression non seulement des gènes hémizygotes, mais également celle des gènes euploïdes voisins. A l'échelle génomique, nous observons des phénomènes concordants. En effet, l'expression des gènes variant en nombre de copies est plus variable que celles des gènes ne variant pas. De plus, à l'instar de la délétion WBS, les CNV influencent l'expression des gènes adjacents, exerçant ainsi un impact global sur les profils d'expression dans les tissus. Résumé pour un large public : De nombreuses maladies ont pour cause un défaut génétique. Parmi les types de mutations, on compte la disparition (délétion) d'une partie de notre génome ou sa duplication. Bien que l'on connaisse les anomalies associées à certaines maladies, les mécanismes moléculaires par lesquels ces réarrangements de notre matériel génétique induisent les maladies sont encore méconnus. C'est pourquoi nous nous sommes intéressés à la régulation des gènes dans les régions susceptibles à délétion ou duplication. Dans ce travail, nous avons démontré que les délétions et les duplications influencent la régulation des gènes situés à proximité, et que ces changements interviennent dans plusieurs organes.
Resumo:
Summary : Aim: To assess the number of immigrants with pulmonary tuberculosis detected by chest x-ray screening at the Swiss border. Method: All adult immigrants entering Switzerland in 2004 were screened by chest x-ray (CXR). The number of radiological abnormalities suggestive of pulmonary tuberculosis, and the proportion requiring treatment for tuberculosis, were assessed retrospectively. The frequency of symptoms among immigrants with documented TB was compared with a sample of immigrants with a normal CXR. Results: Among 8995 immigrants, 8240 had a normal CXR, 630 had some abnormality not suggestive of active TB and 125 (1.4%) had a CXR suggestive of pulmonary TB. A final diagnosis of tuberculosis requiring treatment was made in SO (1 l with positive smear and culture, 16 with positive culture and 23 with negative culture), 57 had fibrotic lesions and 18 had another disease or a normal x-ray on control. The prevalence of symptoms did not differ between 27 immigrants with documented TB (smear+/culture+: 82%, smear-/ culture+: 75%), and 23 with smear-/culturetuberculosis (91%), but lower in 57 immigrants with fibrotic lesions (60%). Cough was more frequent among the 27 immigrants with documented TB (70%) than among 198 smokers without TB (37%) and among 229 non-smokers without TB (15%) Conclusions: Only 22% (27/125) of immigrants with CXR abnormalities suggestive of pulrnonary tuberculosis were documented by smear and/or culture and 40% (50/125) needed antituberculous treatment. 2/11 smear-positive immigrants would not have been detected by a questionnaire on symptoms. Rapport de synthèse : Le but de l'étude est d'évaluer le rendement du dépistage radiologique de la tuberculose pulmonaire chez les immigrés à l'entrée en Suisse. Méthode: parmi les immigrés adultes entrés en Suisse en 2004, qui ont tous passé un contrôle radiologique, le nombre de porteurs de clichés thoraciques suspects de tuberculose et la proportion de cas chez lesquels un traitement antituberculeux a été prescrit ont été évalués rétrospectivement. La fréquence des symptômes chez les immigrés atteints de tuberculose a été comparée à celle d'un groupe contrôle sans tuberculose. Résultats: parmi 8995 immigrés, 8240 avaient un cliché thoracique normal, 630 étaient porteurs d'une anomalie non suspecte de tuberculose active et 125 (1.4%) montraient des signes radiologiques suspects de tuberculose. Un diagnostic final de tuberculose nécessitant un traitement a été posé dans 50 cas (11 cas à frottis et culture positifs, 16 cas à culture positive, 23 cas à culture négative), 57 présentaient des lésions cicatricielles compatibles avec une ancienne tuberculose et 18 avaient une autre affection pulmonaire ou un cliché normal au contrôle. La prévalence des plaintes n'était pas différente entre les 27 immigrés porteurs d'une tuberculose documentée (frottis+ /culture+: 82%, frottis-/culture+ : 75%) et les 23 immigrés atteints d'une tuberculose non documentée (frottis-/culture-: 91%), mais elle était plus élevée que chez les 57 immigrés porteurs de lésions cicatricielles (59%). La toux était plus fréquente chez les 27 tuberculeux documentés (70%) que chez 198 fumeurs sans tuberculose (37%) et chez 229 non fumeurs sans tuberculose (15%). Conclusions: seuls 22% (27/125) des immigrés dont le cliché thoracique est suspect de tuberculose sont porteurs d'une tuberculose documentée par examen direct ou culture et 40% (50/125) nécessitent un traitement antituberculeux. Deux immigrants sur les 11 cas frottis positifs n'auraient pas été dépistés par un questionnaire.
Resumo:
Introduction : S'il est des questions qui plongent les juristes et les médecins dans l'embarras, celle de l'information à délivrer au patient, composante de la théorie du consentement éclairé, occupe une place de choix. Depuis plusieurs années, les exigences relatives aux droits des patients, notamment le droit à l'information médicale, ont évolué parallèlement aux progrès vertigineux de la médecine et de la science. Il y a trente ans, ce principe était pratiquement inconnu de notre ordre juridique. En 1979, le Tribunal fédéral se pose formellement la question des limites du devoir d'information incombant au médecin. Soulignons qu'en 1940 déjà, les juges fédéraux avaient abordé l'existence d'un devoir d'information du thérapeute tout en niant son existence dans le cas d'espèce au motif que le patient n'aurait pas renoncé à l'intervention s'il avait été correctement informé du risque normal et minime que celle-ci comportait. Depuis lors, ce principe a été consacré par l'ensemble des législations sanitaires cantonales. La médecine humaine étant de la compétence des cantons, il a fallu attendre 1992 pour voir la création d'une norme constitutionnelle attribuant la première compétence à la Confédération dans le domaine du génie génétique et de la procréation médicalement assistée. La Confédération a ensuite reçu des compétences législatives en matière de médecine de transplantation. Enfin, un futur article 118a Cst permettant à la Confédération de légiférer dans le domaine de la recherche sur l'homme sera prochainement soumis aux votes du peuple et des cantons. Ces nouvelles lois fédérales concrétisent les principes généraux en matière d'information dégagés par le Tribunal fédéral au fil de sa jurisprudence et lui octroient une place importante s'agissant de domaines pointus où l'individu n'est que profane. Ces trente dernières années ont été marquées par un accroissement important des droits des patients corollairement lié à un affaiblissement du pouvoir des médecins. A ce jour, le point d'équilibre ne semble pas être atteint, la tendance étant de pratiquer de la médecine dite défensive, promouvant le consentement éclairé au rôle de protection juridique du thérapeute, oubliant sa fonction première de garantie du libre choix du patient. GUILLOD, dans une thèse faisant autorité en Suisse, ayant pour thème : le consentement éclairé du patient, Autodétermination ou paternalisme ? s'était déjà penché en 1986 sur la problématique de l'information. A cette période, la jurisprudence en la matière était peu importante, le droit fédéral était pratiquement inexistant et le droit cantonal commençait à émerger. Nous avons dès lors décidé de consacrer notre travail de doctorat au devoir d'information du médecin, eu égard au nombre considérable de décisions rendues en la matière et à l'évolution de la législation tant fédérale que cantonale. Pratiquement, cette étude se subdivise en trois parties. La première permettra d'analyser les différents fondements juridiques du devoir d'information. Nous nous proposons de commencer par un aperçu de la théorie des droits de la personnalité avant de l'appliquer au devoir d'information. Puis, nous examinerons le devoir d'information dans les autres domaines du droit, tels que le droit pénal, le droit des contrats, le droit public ou le droit international. De plus, vu l'importance des normes déontologiques dans ce domaine, celles-ci feront l'objet d'une analyse spécifique. Dans une deuxième partie, il s'agira de dessiner les contours de l'information médicale. Nous commencerons par déterminer les parties à cette information avant de déterminer l'étendue et le contenu du devoir incombant au médecin. Puis, nous aborderons successivement la question des modalités de l'information et la problématique du fardeau de la preuve. Ensuite, les limitations et les cas particuliers seront examinés. La suite du travail portera sur l'exigence d'un consentement libre et éclairé en sa qualité de corollaire à l'information. Enfin, nous terminerons par un examen du droit d'accès au dossier médical. La troisième partie consacre spécifiquement le devoir d'information dans les nouvelles lois fédérales médicales (LPMA, LRCS, LAGH, LTO, LSter, LPTh, AP LRH). Dans ce dernier volet, nous nous proposons de commencer par un examen des compétences de la Confédération en médecine humaine, puis nous analyserons ces différentes lois, essentiellement sous trois aspects : leur champ d'application, l'information et le consentement du patient.
Resumo:
Résumé Ce travail s'inscrit dans un programme de recherche centré sur la pharmacovigilance en psychiatrie. Buts de l'étude Les nouveaux antipsychotiques atypiques sont prescrits avec beaucoup de succès, parce qu'ils présentent une sécurité dans leur emploi bien supérieure à celle des antipsychotiques classiques. Cette situation a conduit à une large prescription «off-label» (hors indication admise). Le but de ce travail a été d'étudier la pratique en matière de prescription des psychiatres hospitaliers en ce qui concerne les antipsychotiques en comparant des patients traités pour des psychoses ou d'autres indications officielles aux patients recevant un traitement antipsychotique «off-label». Méthode Dans le cadre d'un programme de pharmacovigilance - pharmacoépidemiologie, tous les médicaments prescrits à 5 jours de référence (entre 1999 et 2001) à l'hôpital psychiatrique universitaire de Lausanne (98 lits) ont été enregistrés, avec des données sur l'âge, le sexe et le diagnostic des patients. Les prescriptions de 202 patients ont été évaluées. Les patients ont été classés dans 3 groupes diagnostiques : (1) patient présentant des troubles psychotiques, (2) patient présentant des épisodes maniaques et des épisodes dépressifs avec des symptômes psychotiques, et (3) patient présentant d'autres troubles. Les groupes (1) et (2) forment une classe de patients recevant un antipsychotique pour une indication officielle, et les prescriptions dans le groupe (3) ont été considérées comme «off-label». Résultats principaux Moins de patients psychotiques ont reçu un antidépresseur (p<0.05) ou des hypnotiques non-benzodiazepine (p<0.001) comparés aux patients des deux autres groupes. Les patients présentant des troubles affectifs recevaient seulement exceptionnellement une combinaison d'un antipsychotique atypique et conventionnel, tandis qu'un nombre inférieur de patients avec des indications « off-label » ont reçu moins .souvent des antipsychotiques atypiques que ceux des deux groupes de comparaison (p<0.05). L'analyse statistique (stepwise logistic regression) a révélé que les patients présentant des troubles psychotiques avaient un risque plus élevé de recevoir un médicament antipsychotique d'une dose moyenne ou élevée, (p<0.001) en comparaison aux deux autres groupes. Conclusion Les nouveaux médicaments antipsychotiques semblent être prescrits avec moins d'hésitation principalement pour des indications admises. Les médecins prescrivent de nouveaux médicaments « off-label » seulement après avoir acquis une certaine expérience dans le domaine des indications approuvées, et ils étaient plus prudents en ce qui concerne la dose en traitant sur la base «off-label». Abstract Objective The new brands of atypical antipsychotics are very successfully prescribed because of their enhanced safety profiles and their larger pharmacological profile in comparison to the conventional antipsychotic. This has led to broad off-label utilisation. The aim of the present survey was to study the prescription practice of hospital psychiatrists with regard to antipsychotic drugs, comparing patients treated for psychoses or other registered indications to patients receiving an off-label antipsychotic treatment. Method As part of a pharmacovigilance/pharmacoepidemiology program, all drugs given on 5 reference days (1999 - 2001) in the 98-bed psychiatric hospital of the University of Lausanne, Switzerland, were recorded along with age, sex and diagnosis. The prescriptions of 202 patients were assessed. Patients were classified in 3 diagnostic groups: (1) patient with psychotic disorders, (2) patients with manic episodes and depressive episodes with psychotic symptoms, and (3) patients with other disorders. Group (1) and (2) formed the class of patients receiving an antipsychotic for a registered indication, and the prescriptions in group (3) were considered as off-label. Main results A lesser number of psychotic patients received antidepressant (p<0.05) and nonbenzodiazepine hypnotics (p<0.001) compared to the patients of the other two groups. The patients with affective disorders received only exceptionally a combination of an atypical and a conventional antipsychotic, whereas a lesser number of patients with off-label indications received less often atypical antipsychotics than those of the two comparison groups (p<0.05). Stepwise logistic regression revealed that patients with psychotic disorder were at higher risk of receiving an antipsychotic medication in medium or high dose (p<0.001), in comparison to the two other groups. Conclusions The new antipsychotic drugs seem to be prescribed with less hesitation mainly for approved indications. Physicians prescribe new drugs on off-label application only after having gained some experience in the field of the approved indications, and were more cautious with regard to dose when treating on an off-label basis.
Resumo:
EXPERIMENTATION GENERIQUE ET DIALOGISME INTERTEXTUEL: PERRAULT, LA FONTAINE, APULEIUS, STRAPAROLA AND BASILE. Les contes en vers et en prose de Perrault relèvent, selon l'hypothèse présentée dans cette étude, d'un dialogisme intertextuel très complexe avec les formes génériques du conte déjà existantes dans les littératures européennes. L'académicien s'adonne à une véritable «expérimentation générique » au cours de laquelle il crée de nouvelles formes génériques, de nouvelles intrigues et de nouvelles figures à partir de la fabella de Psyché enchâssée dans les Métamorphoses d'Apulée, et de sa récriture galante par La Fontaine dans Les Amours de Psiché et de Cupidon en 1669. Ce double dialogue intertextuel est encore sous-tendu par le recours aux favole de Straparola (Le Piacevole notti) et aux cunti (Lo cunto de li cunti) de Basile, célèbres narrateurs italiens, qui avaient déjà reconfiguré de façon originale certains épisodes et personnages de la fabella de Psyché. Ce processus dialogique complexe est ici mis en évidence par l'analyse (inter)textuelle successive des trois premiers contes en prose, La Belle au bois dormant, Le Petit Chaperon rouge et La Barbe bleue. L'analyse comparative montre que Perrault les invente à partir des trois moments successifs de l'épreuve la plus difficile que Vénus inflige à Psyché, celle de la descente aux Enfers. En introduisant des différences significatives par rapport aux textes latins, italiens et français, l'académicien parvient à créer une nouvelle variation générique : le conte pseudo-naïf doté d'un sens crypté qui se découvre « plus ou moins selon le degré de pénétration de ceux qui les lisent ».GENERIC EXPERIMENTATION AND INTERTEXTUAL DIALOGISM: PERRAULT, LA FONTAINE, APULEIUS, STRAPAROLA AND BASILEAccording to Ute Heidmann, Perrault's tales have very complex inter- textual relations with other generic forms which already existed in other European literatures. Heidmann demonstrates here how Perrault experi- ments "generically" with the fairy tale and how he creates new generic forms from other tales by Apuleus, Straparola, Basile, or La Fontaine. This dialogic process is here underlined by the analysis of three particular fairy tales, Sleeping Beauty in the Woods, Little Red Riding Hood and Blue Beard. Heidmann shows how, by introducing key differences with the Latin, Italian and French models, Perrault succeeds in creating a new generic variation of the fairy tale: "the pseudo-naïve fairy tale".
Resumo:
Da Bisanzio alla Santa Russia Résumé Ivan Foletti Le texte du premier volume de YIkonografija Bogomatri (Iconographie de la mère de Dieu), publié en 1914 à Saint Pétersbourg par Nikodim Kondakov et traduit dans le cadre de ce travail, soulève chez le lecteur contemporain de nombreuses questions quant au développement des études byzantines, entre la fin du XIXe et le début du XXe siècle. Il s'agit, avant tout, de comprendre les enjeux fondamentaux de la naissance de cette discipline, dans le cadre de l'Europe romantique et plus particulièrement de son acculturation à la réalité russe. En se concentrant sur le personnage de Nikodim Kondakov, considéré par ses contemporains comme le patriarche des études byzantines, ce travail propose d'articuler la réflexion autour de deux axes principaux. Il s'agit d'une part de la relation entre histoire de l'art et société : dans le contexte russe et plus largement dans celui de l'Europe, la recherche semble se développer en étroite relation avec les tendances politiques et sociales de ces années. C'est probablement la raison du choix pour Nikodim Kondakov de se dédier aux études de Byzance, dans les années où la Russie prépare sa guerre contre la Turquie (1877-1878), tandis que l'opinion publique est martelée avec un revival de l'ancienne idéologie de Moscou comme « troisième Rome » et héritière de Byzance. Un autre aspect significatif est la décision de ce même chercheur d'étudier les antiquités russes sous le règne de Alexandre III, le tzar « contre-réformateur », quand la Russie se replie sur elle même autour de trois mots d'ordre: Orthodoxie, autocratie, et nationalité. D'autre part, la réception de Kondakov en Occident, semble aussi dépendre de questions politiques. Son accueil très favorable en France et en Angleterre contraste avec une perception bien plus négative en Autriche et en Allemagne ; il s'agit là d'une position en étonnante harmonie avec les traités politiques - l'alliance franco-russe de 1891 et la triple entente de 1911 qui opposent les pays membres aux empires centraux. Le deuxième axe considéré est celui d'une analyse systématique de la naissance des études sur les images cultuelles russes, les icônes. Les pages dédiées à ce phénomène dans Γ Ikonograflja Bogomatri, mais également dans les autres ouvrages de Kondakov, posent clairement la question des raisons nationalistes et populistes de la redécouverte, autour de 1900, en Russie et en Europe de cette expression visuelle. Conclusion logique de la tradition historiographique du XIXe siècle - qui s'est préoccupé des icônes perçues comme documents historiques - cette nouvelle vague d'intérêt pose la question de l'icône commé"oeuvre d'art. C'est autour de ce débat, alimenté également par l'apparition des avant-gardes, que se situent les plus importants savants russes de ces années en opposant deux manières radicalement différentes de percevoir l'art : à l'approche positiviste s'oppose celle d'un renouveau d'Hegel. Ce débat sera brusquement interrompu par la révolution, suivie par les années staliniennes qui vont définitivement « discerner » laquelle des deux méthodes et approches est la « juste », en congelant de fait, pour des décennies, toute possibilité de discussion. Cette thèse souhaiterait donc ouvrir en Occident un débat pour l'instant marginal dans les études : celui de la naissance d'une histoire de l'art moderne en Russie, mais également de l'émergence d'une nouvelle Europe savante autour de 1900 où l'histoire de l'art byzantin s'affirme comme un domaine émergent.
Resumo:
Problématique: Pourquoi la mise en scène complexe du Timée-Critias avec ses contextes spatio-temporels emboîtés et ses narrations enchâssées? Quelle est la fonction (pragmatique et argumentative) du discours cosmogonique et anthropogonique de Timée intercalé entre le résumé du récit de l'Atlantide dans le prologue du Timée et la narration même de ce récit dans le Critias! Quel est le rapport entre les discours des deux protagonistes et celui de Socrate sur la cité idéale dans la République? Voilà les principales questions auxquelles cette thèse essaie de répondre. Grâce à une approche discursive et sémio-narrative, elle cherche à montrer la fonction pragmatique et la cohérence narrative et sémantique du double dialogue tout en tenant compte des visions du monde divergentes et même contradictoires des deux protagonistes. Elle essaie de comprendre comment les deux, l'un d'origine italique, l'autre Athénien, dans un contexte énonciatif donné et sur la base de leurs conceptions culturelles et «scientifiques» - sur l'homme et sur le monde - et de leurs idées «philosophiques» - sur l'être, le devenir et la connaissance - produisent des discours de signification différente mais traitant tous deux de la genèse, que ce soit celle du monde, de l'homme et des cités. Elle propose en outre de lire le Timée-Critias à la fois comme une continuation et une réécriture de la République: non seulement les trois dialogues ont le même sujet (la meilleure cité), mais ils se caractérisent par des parallèles dans la situation dramatique et énonciative et dans la manière dont se développe la narration. Plan: Les deux premiers chapitres examinent comment les performances discursives de Timée et de Critias se mettent en place dans le prologue, en prêtant une attention particulière aux aspects dramatiques et énonciatifs, mais aussi poétiques et narratifs (énonciateurs/narrateurs et leurs destinataires, fonction et genre des discours résumés et annoncés). Les troisième et quatrième chapitres, consacrés respectivement au long discours de Timée et à celui de Critias dans le dialogue homonyme, comparent d'abord les deux discours aux Hymnes homériques, à la Théogonie d'Hésiode et à la poésie généalogique afin de mieux saisir la fonction pragmatique et la composition de l'ensemble du Timée-Critias-, puis, à partir des principes ontologiques et épistémologiques explicités dans les proèmes, ils se proposent de dégager, en suivant de près la narration, les conceptions cosmologiques, anthropologiques et épistémologiques des deux protagonistes et de voir comment elles déterminent la production et l'énonciation de leurs discours. Enfin, le dernier chapitre reprend certains éléments essentiels étudiés précédemment en élargissant la perspective à la République et à son rapport intertextuel avec le Timée- Critias: il met en regard les contextes énonciatifs et dramatiques et la problématique des deux oeuvres (le rôle des personnages, la question de la réalisation de la meilleure cité), le discours de Timée et les livres six et sept (la khóra et Yagathón, le statut du discours vraisemblable et l'analogie de la ligne), ainsi que le Critias et les livres huit et dix (la dégénérescence de l'Atlantide et de la meilleure cité, la poésie «mimétique» de Critias et celle des poètes critiquée par Socrate).