34 resultados para Tire rubber scraps
Resumo:
Dans les dernières années du 20ème siècle, l'aluminium a fait l'objet de beaucoup de communications outrancières et divergentes cautionnées par des scientifiques et des organismes faisant autorité. En 1986, la société PECHINEY le décrète perpétuel tel le mouvement « L'aluminium est éternel. Il est recyclable indéfiniment sans que ses propriétés soient altérées », ce qui nous avait alors irrité. Peu de temps après, en 1990, une communication tout aussi outrancière et irritante d'une grande organisation environnementale, le World Wild Fund, décrète que « le recyclage de l'aluminium est la pire menace pour l'environnement. Il doit être abandonné ». C'est ensuite à partir de la fin des années 1990, l'explosion des publications relatives au développement durable, le bien mal nommé. Au développement, synonyme de croissance obligatoire, nous préférons société ou organisation humaine et à durable, mauvaise traduction de l'anglais « sustainable », nous préférons supportable : idéalement, nous aurions souhaité parler de société durable, mais, pour être compris de tous, nous nous sommes limités à parler dorénavant de développement supportable. Pour l'essentiel, ces publications reconnaissent les très graves défauts de la métallurgie extractive de l'aluminium à partir du minerai et aussi les mérites extraordinaires du recyclage de l'aluminium puisqu'il représente moins de 10% de la consommation d'énergie de la métallurgie extractive à partir du minerai (on verra que c'est aussi moins de 10% de la pollution et du capital). C'est précisément sur le recyclage que se fondent les campagnes de promotion de l'emballage boisson, en Suisse en particulier. Cependant, les données concernant le recyclage de l'aluminium publiées par l'industrie de l'aluminium reflètent seulement en partie ces mérites. Dans les années 1970, les taux de croissance de la production recyclée sont devenus plus élevés que ceux de la production électrolytique. Par contre, les taux de recyclage, établis à indicateur identique, sont unanimement tous médiocres comparativement à d'autres matériaux tels le cuivre et le fer. Composante de l'industrie de l'aluminium, le recyclage bénéficie d'une image favorable auprès du grand public, démontrant le succès des campagnes de communication. A l'inverse, à l'intérieur de l'industrie de l'aluminium, c'est une image dévalorisée. Les opinions émises par tous les acteurs, commerçants, techniciens, dirigeants, encore recueillies pendant ce travail, sont les suivantes : métier de chiffonnier, métier misérable, métier peu technique mais très difficile (un recycleur 15 d'aluminium n'a-t-il pas dit que son métier était un métier d'homme alors que celui du recycleur de cuivre était un jeu d'enfant). A notre avis ces opinions appartiennent à un passé révolu qu'elles retraduisent cependant fidèlement car le recyclage est aujourd'hui reconnu comme une contribution majeure au développement supportable de l'aluminium. C'est bien pour cette raison que, en 2000, l'industrie de l'aluminium mondiale a décidé d'abandonner le qualificatif « secondaire » jusque là utilisé pour désigner le métal recyclé. C'est en raison de toutes ces données discordantes et parfois contradictoires qu'a débuté ce travail encouragé par de nombreuses personnalités. Notre engagement a été incontestablement facilité par notre connaissance des savoirs indispensables (métallurgie, économie, statistiques) et surtout notre expérience acquise au cours d'une vie professionnelle menée à l'échelle mondiale dans (recherche et développement, production), pour (recherche, développement, marketing, stratégie) et autour (marketing, stratégie de produits connexes, les ferro-alliages, et concurrents, le fer) de l'industrie de l'aluminium. Notre objectif est de faire la vérité sur le recyclage de l'aluminium, un matériau qui a très largement contribué à faire le 20ème siècle, grâce à une revue critique embrassant tous les aspects de cette activité méconnue ; ainsi il n'y a pas d'histoire du recyclage de l'aluminium alors qu'il est plus que centenaire. Plus qu'une simple compilation, cette revue critique a été conduite comme une enquête scientifique, technique, économique, historique, socio-écologique faisant ressortir les faits principaux ayant marqué l'évolution du recyclage de l'aluminium. Elle conclut sur l'état réel du recyclage, qui se révèle globalement satisfaisant avec ses forces et ses faiblesses, et au-delà du recyclage sur l'adéquation de l'aluminium au développement supportable, adéquation largement insuffisante. C'est pourquoi, elle suggère les thèmes d'études intéressant tous ceux scientifiques, techniciens, historiens, économistes, juristes concernés par une industrie très représentative de notre monde en devenir, un monde où la place de l'aluminium dépendra de son aptitude à satisfaire les critères du développement supportable. ABSTRACT Owing to recycling, the aluminium industry's global energetic and environmental prints are much lower than its ore extractive metallurgy's ones. Likewise, recycling will allow the complete use of the expected avalanche of old scraps, consequently to the dramatic explosion of aluminium consumption since the 50's. The recycling state is characterized by: i) raw materials split in two groups :one, the new scrap, internal and prompt, proportional to semi-finished and finished products quantities, exhibits a fairly good and regular quality. The other, the old scrap, proportional to the finished products arrivïng at their end-of--life, about 22 years later on an average, exhibits a variable quality depending on the collect mode. ii) a poor recycling rate, near by that of steel. The aluminium industry generates too much new internal scrap and doesn't collect all the availa~e old scrap. About 50% of it is not recycled (when steel is recycling about 70% of the old scrap flow). iii) recycling techniques, all based on melting, are well handled in spite of aluminium atiiníty to oxygen and the practical impossibility to purify aluminium from any impurity. Sorting and first collect are critical issues before melting. iv) products and markets of recycled aluminium :New scraps have still been recycled in the production lines from where there are coming (closed loop). Old scraps, mainly those mixed, have been first recycled in different production lines (open loop) :steel deoxidation products followed during the 30's, with the development of the foundry alloys, by foundry pieces of which the main market is the automotive industry. During the 80's, the commercial development of the beverage can in North America has permitted the first old scrap recycling closed loop which is developing. v) an economy with low and erratic margins because the electrolytic aluminium quotation fixes scrap purchasing price and recycled aluminium selling price. vi) an industrial organisation historically based on the scrap group and the loop mode. New scrap is recycled either by the transformation industry itself or by the recycling industry, the remelter, old scrap by the refiner, the other component of the recycling industry. The big companies, the "majors" are often involved in the closed loop recycling and very seldom in the open loop one. To-day, aluminium industry's global energetic and environmental prints are too unbeara~ e and the sustainaЫe development criteria are not fully met. Critical issues for the aluminium industry are to better produce, to better consume and to better recycle in order to become a real sustainaЫe development industry. Specific issues to recycling are a very efficient recycling industry, a "sustainaЫe development" economy, a complete old scrap collect favouring the closed loop. Also, indirectly connected to the recycling, are a very efficient transformation industry generating much less new scrap and a finished products industry delivering only products fulfilling sustainaЫe development criteria.
Resumo:
Plants naturally synthesize a variety of polymers that have been used by mankind as a source of useful biomaterials. For example, cellulose, the main constituent of plant cell wall and the most abundant polymer on earth, has been used for several thousand years as a source of fibers for various fabrics. Similarly, rubber extracted from the bark of the tree Hevea brasiliensis, has been a major source of elastomers until the development of similar synthetic polymers. In the last century, the usefulness of plant polymers as biomaterials has been expanded through the chemical modification of the natural polymers. For example, a number of plastics have been made by substituting the hydroxyl groups present on the glucose moiety of cellulose with larger groups, such as nitrate or acetate, giving rise to materials such as cellulose acetate, a clear plastic used in consumer products such as toothbrush handles and combs. Similarly, starch has been used in the manufacture of plastics by either using it in blends with synthetic polymers or as the main constituent in biodegradable plastics. The advent of transformation and expres- sion of foreign genes in plants has created the possibility of expanding the usefulness of plants to include the synthesis of a range of biomolecules. In view of the capacity of certain crops to produce a large quantity of organic raw material at low cost, such as oils and starch, it is of interest to explore the possibility of using transgenic plants as efficient vectors for the synthesis of biopolymers. Such plant based biopolymers could replace, in part, the synthetic plastics and elastomers produced from petroleum, offering the advantage of renewability and sustainability. Furthermore, being natural pro- ducts, biopolymers are usually biodegradable and can thus contribute to alleviate problems associated with the management of plastic waste. In this article, the emphasis will be on the use of transgenic plants for the synthesis of two novel classes of industrially useful polymers, namely protein based polymers made from natural or artificial genes, and polyhydroxyalkanoates, a family of bacterial poly- esters having the properties of biodegradable plastics and elastomers.
Resumo:
Plants produce a range of biopolymers for purposes such as maintenance of structural integrity, carbon storage, and defense against pathogens and desiccation. Several of these natural polymers are used by humans as food and materials, and increasingly as an energy carrier. In this review, we focus on plant biopolymers that are used as materials in bulk applications, such as plastics and elastomers, in the context of depleting resources and climate change, and consider technical and scientific bottlenecks in the production of novel or improved materials in transgenic or alternative crop plants. The biopolymers discussed are natural rubber and several polymers that are not naturally produced in plants, such as polyhydroxyalkanoates, fibrous proteins and poly-amino acids. In addition, monomers or precursors for the chemical synthesis of biopolymers, such as 4-hydroxybenzoate, itaconic acid, fructose and sorbitol, are discussed briefly
Resumo:
A character network represents relations between characters from a text; the relations are based on text proximity, shared scenes/events, quoted speech, etc. Our project sketches a theoretical framework for character network analysis, bringing together narratology, both close and distant reading approaches, and social network analysis. It is in line with recent attempts to automatise the extraction of literary social networks (Elson, 2012; Sack, 2013) and other studies stressing the importance of character- systems (Woloch, 2003; Moretti, 2011). The method we use to build the network is direct and simple. First, we extract co-occurrences from a book index, without the need for text analysis. We then describe the narrative roles of the characters, which we deduce from their respective positions in the network, i.e. the discourse. As a case study, we use the autobiographical novel Les Confessions by Jean-Jacques Rousseau. We start by identifying co-occurrences of characters in the book index of our edition (Slatkine, 2012). Subsequently, we compute four types of centrality: degree, closeness, betweenness, eigenvector. We then use these measures to propose a typology of narrative roles for the characters. We show that the two parts of Les Confessions, written years apart, are structured around mirroring central figures that bear similar centrality scores. The first part revolves around the mentor of Rousseau; a figure of openness. The second part centres on a group of schemers, depicting a period of deep paranoia. We also highlight characters with intermediary roles: they provide narrative links between the societies in the life of the author. The method we detail in this complete case study of character network analysis can be applied to any work documented by an index. Un réseau de personnages modélise les relations entre les personnages d'un récit : les relations sont basées sur une forme de proximité dans le texte, l'apparition commune dans des événements, des citations dans des dialogues, etc. Notre travail propose un cadre théorique pour l'analyse des réseaux de personnages, rassemblant narratologie, close et distant reading, et analyse des réseaux sociaux. Ce travail prolonge les tentatives récentes d'automatisation de l'extraction de réseaux sociaux tirés de la littérature (Elson, 2012; Sack, 2013), ainsi que les études portant sur l'importance des systèmes de personnages (Woloch, 2003; Moretti, 2011). La méthode que nous utilisons pour construire le réseau est directe et simple. Nous extrayons les co-occurrences d'un index sans avoir recours à l'analyse textuelle. Nous décrivons les rôles narratifs des personnages en les déduisant de leurs positions relatives dans le réseau, donc du discours. Comme étude de cas, nous avons choisi le roman autobiographique Les Confessions, de Jean- Jacques Rousseau. Nous déduisons les co-occurrences entre personnages de l'index présent dans l'édition Slatkine (Rousseau et al., 2012). Sur le réseau obtenu, nous calculons quatre types de centralité : le degré, la proximité, l'intermédiarité et la centralité par vecteur propre. Nous utilisons ces mesures pour proposer une typologie des rôles narratifs des personnages. Nous montrons que les deux parties des Confessions, écrites à deux époques différentes, sont structurées autour de deux figures centrales, qui obtiennent des mesures de centralité similaires. La première partie est construite autour du mentor de Rousseau, qui a symbolisé une grande ouverture. La seconde partie se focalise sur un groupe de comploteurs, et retrace une période marquée par la paranoïa chez l'auteur. Nous mettons également en évidence des personnages jouant des rôles intermédiaires, et de fait procurant un lien narratif entre les différentes sociétés couvrant la vie de l'auteur. La méthode d'analyse des réseaux de personnages que nous décrivons peut être appliquée à tout texte de fiction comportant un index.
Resumo:
Depuis 1990 et la fin de la Guerre Froide, les Etats-Unis d'Amérique sont devenus la première puissance mondiale, animée par l'idéal de défendre les valeurs occidentale et de répandre la démocratie dans le monde. Or, entre des racines identitaires gréco-romaines empruntées à l'Europe, et les guerres menées au Moyen-Orient contre différents ennemis, la « mission » de l'Amérique suscite critiques et interrogations, et le conflit est autant culturel que militaire. L'Iliade d'Homère au contenu guerrier, érigée par la tradition littéraire en oeuvre fondatrice de l'Occident, offre aux penseurs américains de tous horizons un outil de réflexion propre à éclairer ce présent si inconfortable. A travers l'étude d'un corpus tripartite inédit, ce travail se propose de questionner le rôle d'une oeuvre symbolique de l'Antiquité grecque dans le monde d'aujourd'hui, et débouche sur une réflexion plus large touchant au sens contemporain des études classiques et à la transmission du savoir au sein de la culture populaire. Dans un premier temps, elle examine des ouvrages ou articles à vocation scientifique, mais publiés pour la plupart hors du cadre académique, qui théorisent et expriment les enjeux des guerres des cultures américaines (« culture wars ») divisant conservateurs et libéraux sur la mission véritable d'une éducation libérale. Ces ouvrages se servent également de l'Iliade comme d'un miroir où se reflète les conflits modernes, afin d'atténuer le trouble contemporain en juxtaposant passé et présent. Dans un deuxième temps sont abordés les médias journalistiques et informatiques, à l'aide des résultats obtenus lors de recherches poussées, effectuées dans les archives informatiques des journaux publiés dans les capitales et villes majeures des cinquante Etats américains. De fascinantes comparaisons entre la guerre de Troie et la guerre en Irak y sont notamment construites. Le discours sur l'actualité se développe par le recours à l'Antiquité, et en tire de nombreuses « leçons » destinées au gouvernement américain et à tous les meneurs de guerres. Et dans un troisième temps, deux romans de science-fiction, Ilium (2003) et sa suite Olympos (2005), de Dan Simmons, fournissent un fascinant complément littéraire au reste du corpus. Imprégnés par les culture wars, ils transposent l'Iliade dans un lointain futur et expriment sous une forme nouvelle toutes les interrogations brûlantes qui, aujourd'hui particulièrement, animent une Amérique troublée tant par ses guerres que par la remise en question de son identité occidentale. Par cette réunion de trois domaines dissemblables, ce travail pose aussi de nombreuses questions épistémologiques sur la circulation de l'information, la transformation des savoirs, le flou des frontières entre les genres, la révolution que représente Internet, et la fragmentation progressive de la bulle académique. Il propose également de nombreuses perspectives d'ouverture permettant de poursuivre cette recherche. Car la réception contemporaine de l'Iliade - et de l'Antiquité en général - est un domaine riche et dynamique, qui présente l'avantage - ou l'inconvénient, c'est selon - d'être toujours d'actualité. L'inconfort du présent ne devrait pas empêcher son étude, car les résultats sont extrêmement révélateurs de la véritable relation qu'entretiennent les hommes d'aujourd'hui - et non plus seulement les savants - avec leur passé.
Resumo:
Les chartes de l'ancien couvent de Romainmôtier constituent une source d'information essentielle pour l'histoire du Pays de Vaud aux Xe et XIe siècles. Toutefois, malgré leur importance, elles n'ont jamais fait l'objet d'une étude d'ensemble. Les historiens dépendent encore aujourd'hui de transcriptions partielles et fautives, imprimées au XIXe siècle. Afin de remédier à cette carence historiographique, Alexandre Pahud, qui a réuni l'ensemble des documents entre 888 et 1190, propose dans sa thèse de doctorat, soutenue à l'Université de Lausanne le 25 novembre 2008, une édition critique de tous ces textes, selon les principes de l'érudition moderne. Si les Archives cantonales vaudoises conservent la majeure partie de la documentation, d'autres institutions en Suisse et à l'étranger fournissent un apport substantiel concernant Romainmôtier avant le XIIIe siècle. Il s'agit en particulier des Archives de l'Etat de Fribourg, des Archives de l'Etat de Berne et de la Bibliothèque royale de Turin. En raison d'une importante dispersion des fonds, A. Pahud a entrepris de reconstituer le chartrier du couvent, tel qu'il devait exister à l'époque médiévale. Pour cela, il s'est basé sur les notes dorsales qui figurent au verso des parchemins, ainsi que sur les anciens inventaires. La méthode utilisée a permis de retrouver plusieurs chartes du début de l'an mil, sous la forme de copies intégrales, ainsi qu'une vingtaine de notices en allemand résumant des actes des Xe-XIIe siècles, tous ces textes étant demeurés inconnus des spécialistes. Ainsi, la thèse de A. Pahud démontre qu'il est possible d'apporter de nouveaux matériaux destinés à enrichir notre connaissance de cette période reculée et mal documentée au niveau local. En parallèle, l'auteur de la thèse a mené une expertise diplomatique des chartes de Romainmôtier, c'est-à-dire une étude de leurs caractéristiques matérielles et formelles. A l'examen, il apparaît que les moines ont davantage acquis de biens qu'ils n'en ont concédé à des tiers, symptôme d'un patrimoine en voie de formation. Les actes privés, qui relatent des transactions entre le monastère et ses voisins, représentent le 80% du corpus étudié. Ils sont rédigés tantôt au présent et à la première personne, tantôt au passé et à la troisième personne, lorsqu'ils ne mélangent pas les deux types de discours. Leur valeur juridique est assurée par une liste de témoins, à défaut de tout scellement. Dans la majorité des cas, un unique scribe établit son texte en une seule fois, après la cérémonie sanctionnant le transfert de propriété. Jusqu'en 1050, ce sont généralement des personnes extérieures à Romainmôtier qui instrumentent au profit du couvent; par la suite, les clunisiens reprennent à leur compte la confection des actes qui les concernent. Curieusement, on constate une disparition radicale de l'acte privé à Romainmôtier entre 1167 et 1198, phénomène qui tranche complètement sur la conjoncture régionale. Dans la dernière partie de sa thèse, A. Pahud présente une nouvelle histoire du couvent de Romainmôtier, qui aborde à la fois les questions politiques et les structures socioéconomiques. Durant le premier tiers du XIe siècle, les clunisiens de Romainmôtier bénéficient de la protection du dernier roi de Bourgogne, Rodolphe III (993-1032), qui fonde la puissance temporelle du monastère. A cette époque, l'institution est administrée directement par l'abbé de Cluny, Odilon, responsable de Romainmôtier à titre personnel. Cependant, la disparition de Rodolphe III, dont la succession est contestée, inaugure une période de grave insécurité dans nos régions. Ces troubles profitent avant tout aux seigneurs locaux, qui prennent appui sur un château pour imposer leur domination au détriment des pouvoirs ecclésiastiques. Au milieu du XIe siècle, les possessions de Romainmôtier, qui s'étendent de chaque côté du Jura, sont menacées par trois puissants lignages, les Grandson, les Salins et les Joux. Face à cette situation périlleuse, les religieux s'adressent tour à tour au pape, à l'empereur germanique, ainsi qu'aux comtes de Bourgogne, dépositaires d'une autorité publique en Franche-Comté. Mais bien souvent, les moines doivent transiger avec leurs adversaires, en passant avec eux des accords coûteux et fragiles. Cela n'empêche pas qu'une certaine coopération s'établisse à l'occasion avec le monde laïque, qui contribue par ses aumônes au développement économique du monastère. Romainmôtier tire ses principales ressources de l'agriculture, tant au Pays de Vaud qu'en Franche-Comté; le travail de la vigne est bien attesté sur La Côte, dès la fin du Xe siècle, tandis que l'élevage ne joue qu'un rôle secondaire; là où ils sont bien implantés, les moines parviennent à prendre le contrôle des moulins; à Salins (France), ils exploitent eux-mêmes le sel nécessaire à leurs besoins. L'ensemble de ces observations s'appuie sur des tableaux et des annexes, qui ajoutent à la critique interne des sources une dimension quantitative. Afin de divulguer les résultats obtenus, A. Pahud envisage de publier prochainement sa thèse dans les Mémoires et documents de la Société d'histoire de la Suisse romande.
Resumo:
Cette étude présente une méthode d'analyse comparative destinée à explorer le processus de « différenciation » considéré ici comme un principe fondamental de l'interaction des cultures et de la création littéraire. Celle-ci tire sa capacité de créer des effets de sens toujours nouvellement pertinents de sa façon de se différencier des voix et des façons de dire déjà existantes. L'étude présente les présupposés, fondements théoriques et objectifs d'une telle « comparaison différentielle » qui accorde une importance constitutive aux langues et aux contextes énonciatifs dont émanent les oeuvres littéraires. Le souci d'explorer ce qui est « différentiel » ne mène pas au constat d'irréductibles différences, mais à la découverte du dialogisme intertextuel et interculturel qui sous-tend toute création littéraire. Les études littéraires en reçoivent un nouvel attrait, car elles nous apprennent quelque chose d'essentiel qu' Eduard Glissant résume dans cette formule : « C'est par la différence que fonctionne ce que j'appelle la Relation avec un grand R ».
Resumo:
Objectives The objective of this article is to describe the development of an anatomically accurate simulator in order to aid the training of a perinatal team in the insertion and removal of a fetal endoscopic tracheal occlusion (FETO) balloon in the management of prenatally diagnosed congenital diaphragmatic hernia. Methods An experienced perinatal team collaborated with a medical sculptor to design a fetal model for the FETO procedure. Measurements derived from 28-week fetal magnetic resonance imaging were used in the development of an anatomically precise simulated airway within a silicone rubber preterm fetal model. Clinician feedback was then used to guide multiple iterations of the model with serial improvements in the anatomic accuracy of the simulator airway. Results An appropriately sized preterm fetal mannequin with a high-fidelity airway was developed. The team used this model to develop surgical skills with balloon insertion, and removal, and to prepare the team for an integrated response to unanticipated delivery with the FETO balloon still in situ. Conclusions This fetal mannequin aided in the ability of a fetal therapy unit to offer the FETO procedure at their center for the first time. This model may be of benefit to other perinatal centers planning to offer this procedure.
Resumo:
Résumé : Si la psychanalyse est régulièrement remise en cause pour son manque de fondement scientifique, de nombreux travaux issus des neurosciences en appellent paradoxalement à un retour aux thèses freudiennes. Cette étude se propose, dans ce contexte, de revisiter les bases neurobiologiques de la métapsychologie et de montrer comment celle-ci repose sur une conception homéostatique du vivant. On en tire plusieurs conséquences. Premièrement, contre Brentano, selon qui l'intentionnalité est la marque du psychologique, on propose que celle-ci s'avère être, plus originellement, la marque des régulations biologiques. Deuxièmement, on montre comment Freud et Damasio développent des conceptions similaires sur le fonctionnement homéostatique de la cognition. Sur le plan épistémologique, on plaide en faveur de la complémentarité de ces deux approches. Si Damasio met au jour les variables somatiques permettant de mesurer les effets de la vie psychique, la théorie pulsionnelle permet de dépasser les problèmes liés à l'ambiguïté de la notion de «représentation cérébrale ». C'est à partir de cette thèse que l'on peut, selon nous, appréhender la psychanalyse comme un double projet visant à articuler une naturalisation de l'appareil psychique à une herméneutique de ses productions. On considère cette double visée comme une réponse à la difficulté centrale que rencontrent les sciences de l'esprit quant aux conditions de possibilité d'une naturalisation de l'intentionnalité. A partir de cette problématique, il devient pertinent d'évaluer la solution freudienne à la lumière de la posture intentionnelle dennettienne et de la théorie gazzaniguienne de l'interpreter. II ne s'agit pas, selon ces dernières approches, de naturaliser directement l'intentionnalité, au risque de commettre une erreur de catégorie. Il est question, au contraire, d'utiliser les principes du fonctionnement homéostatique comme autant de «règles »interprétatives permettant, sur le plan psychologique, de construire du sens. On trouve enfin dans le modèle de l'espace global de travail un moyen de remettre au goût du jour la conception freudienne, dynamique et conflictuelle, du fonctionnement psychique. On avance enfin, à partir de ce modèle, des hypothèses sur les mécanismes cérébraux susceptibles de sous-tendre l'efficacité thérapeutique de la cure analytique. Abstract : While Psychoanalysis' scientific basis is open to question, some neuroscience works are paradoxically calling for a return to Freud. Therefore, the first aim of our study consists in revisiting metapychology's neurobiological roots and to show how it is grounded on a homeostatic theory of life. Several consequences can be drawn from this statement. Firstly, in opposition to Brentanian definition of intentionality, as the specific mark of psychology, we argue that it is more specifically the mark of biological balance. Secondly, this statement allows to show how Freud's and Damasio's theories share common views on the homeostatic functioning of cognition. From an epistemological point of view, they complete one another. If Damasio has highlighted the measurable somatic variables from which we can infer psychic life, the theory of drives allows conceptual difficulties linked to the use of the ambiguous notion of "cerebral representation" to be overcome. According to us, this thesis leads psychoanalysis to be approached as a twin project aiming to articulate psyche naturalization, to a hermeneutic of its productions. It maybe seen as a way to respond to the central issue of mind sciences, that is, to account for the naturalization of intentionality. Given this theoretical framework, it seems relevant to reconsider freudism in the light of the dennettian intentional stance and the gazzanigan theory of interpreter. Then, freudism can be seen as a way to avoid a category mistake. Its solution rejects direct intentionality naturalization in favor of a construction of sense. In this framework, interpretation is regulated by the rules abstracted from the homeostatic functioning of life. Furthermore, we show how the dynamic and conflictual Freudian psyche can be evaluated using the Global workspace model, which allows us to put forth hypotheses on the cerebral mechanisms that may underlie the efficiency of analytical cure.
Resumo:
RÉSUMÉ Traditionnellement attribué à Nāgārjuna, le Pañcakrama («Procédé de la méditation en cinq étapes») est l'un des ouvrages les plus influents du bouddhisme tantrique indo-tibétain. Bien que ce texte ait été accessible au monde indianiste européen dès le milieu du XIXe siècle, seules quelques portions en ont été traduites à ce jour dans une langue occidentale. La présente thèse a pour but premier d'offrir une traduction française annotée du Pañcakrama dans son intégralité. Elle comporte deux parties principales : 1) l'introduction au texte et 2) la traduction annotée. Une édition critique de la version tibétaine du Caryāmelāpakapradïpa est incluse à titre d'annexe (3). (1) L'introduction comporte trois chapitres. Le chapitre 1, intitulé «Le corpus textuel de l'École Ārya», présente d'abord un aperçu des ouvrages de l'école exégétique (appelée l'«École Ārya» < tib. ̒phags lugs) du Guhyasamājatantra à laquelle appartient le Pañcakrama. Cet aperçu est suivi d'une présentation détaillée des informations bibliographiques et philologiques relatives au Pañcakrama et à ses commentaires indiens. Sont également décrits deux autres textes d'une importance particulière pour la compréhension du Pañcakrama, à savoir le Caryāmelāpakapradïpa et le Pradïpoddyotana. Deux textes mineurs apparentés au Pañcakrama, le Karmāntavibhāga et le Svādhisthānaprabheda, sont aussi présentés brièvement. Le chapitre 2 de l'introduction, « La formation textuelle du Pañcakrama», discute quelques problèmes relatifs à la structure textuelle du Pañcakrama et à sa position historique au sein du corpus de l'École Ārya. Nous y examinons d'abord différentes positions à l'égard des cinq (pañca) unités textuelles qui constituent l'ensemble appelé «Pañcakrama». La chronologie relative traditionnellement acceptée pour les trois textes principaux de l'École Ārya, le Pañcakrama, le Caryāmelāpakapradïpa et le Pradïpoddyotana, est ensuite réexaminée. Nous proposons, en conclusion de ce chapitre, la première moitié du IXe siècle comme date de composition du Pañcakrama. Le chapitre 3, «Une analyse synoptique du Pañcakrama», est une présentation du système yogique que décrivent le Pañcakrama et les ouvrages apparentés. Nous y organisons les sujets en cinq groupes : i) les trois discernements (viveka); ii) la théorie des prakrti et āloka; iii) les deux verités; iv) la notion du yuganaddha; v) les trois sortes de caryā. Cette analyse thématique du contenu du Pañcakrama se propose non seulement de présenter le système yogique de l'École Ārya, mais aussi d'éclaircir l'arrière-plan historique de la formation de cette école exégétique. (2) Notre traduction française du Pañcakrama est basée sur le texte sanscrit que nous avons édité en 1994 en collaboration avec le professeur K. Mimaki (Université de Kyoto). En interprétant le texte, nous avons essayé de distinguer deux sortes de données philologiques supplémentaires, à savoir, d'une part, les données tirée des sources qui précèdent chronologiquement le Pañcakrama et, d'autre part, celles offertes par des ouvrages tardifs tels que les commentaires. Une telle distinction est importante du point de vue méthodologique : afin de mieux comprendre le texte dans le contexte historique de sa composition, nous devons nous garder d'adopter sans discrimination les interprétations des commentateurs qui, éloignés dans le temps, sont parfois influencés par des développements tardifs et par des systèmes philosophico-religieux étrangers au texte de base. (3) Dans l'appendice, nous présentons une édition critique du texte tibétain du Caryāmelāpakapradïpa. Cette édition est basée sur quatre éditions xylographiques (Cone, Derge, Narthang et Pékin) ainsi qu'un manuscrit paracanonique qui transmet une version révisée par 'Gos Khug pa 1Has btsas (première moitié du XIe siècle).
Resumo:
Road transport emissions are a major contributor to ambient particulate matter concentrations and have been associated with adverse health effects. Therefore, these emissions are targeted through increasingly stringent European emission standards. These policies succeed in reducing exhaust emissions, but do not address "nonexhaust" emissions from brake wear, tire wear, road wear, and suspension in air of road dust. Is this a problem? To what extent do nonexhaust emissions contribute to ambient concentrations of PM10 or PM2.5? In the near future, wear emissions may dominate the remaining traffic-related PM10 emissions in Europe, mostly due to the steep decrease in PM exhaust emissions. This underlines the need to determine the relevance of the wear emissions as a contribution to the existing ambient PM concentrations, and the need to assess the health risks related to wear particles, which has not yet received much attention. During a workshop in 2011, available knowledge was reported and evaluated so as to draw conclusions on the relevance of traffic-related wear emissions for air quality policy development. On the basis of available evidence, which is briefly presented in this paper, it was concluded that nonexhaust emissions and in particular suspension in air of road dust are major contributors to exceedances at street locations of the PM10 air quality standards in various European cities. Furthermore, wear-related PM emissions that contain high concentrations of metals may (despite their limited contribution to the mass of nonexhaust emissions) cause significant health risks for the population, especially those living near intensely trafficked locations. To quantify the existing health risks, targeted research is required on wear emissions, their dispersion in urban areas, population exposure, and its effects on health. Such information will be crucial for environmental policymakers as an input for discussions on the need to develop control strategies.
Resumo:
Fondée sur un corpus d'écrivains-voyageurs qui sont symptomatiques des changements importants affectant la question de l'espace dans la première moitié du XXème siècle, cette étude tire profit de la grande polyvalence de la problématique du paysage pour proposer un véritable dialogue interdisciplinaire entre littérature et philosophie. Cette perspective est largement favorisée par les écrivains eux-mêmes qui ont indiscutablement lié leur entreprise poétique à des enjeux épistémiques recoupant les préoccupations des scientifiques, médecins, géographes ou philosophes de leur temps. Un certain nombre d'interrogations nous sont apparues caractéristiques de cette période de l'histoire des voyages. Victor Segalen, Blaise Cendrars et Henri Michaux ont été particulièrement sensibles à cette angoisse d'époque liée à l'amenuisement du monde, c'est-à- dire au raccourcissement des distances entre continents suite aux développements des moyens de transport et la perte des « espaces blancs » de la carte, conséquence directe des entreprises exploratrices du XIXème siècle. A la déréliction qui s'empare du voyageur moderne face à la disparition des zones inconnues s'est ajouté l'effroi provoqué par la seconde loi thermodynamique du biologiste allemand Ernst Haeckel, qui, avec sa théorie de l'entropie, a fait craindre à plusieurs générations que la matière de l'univers tendrait vers une simplification toujours plus grande, et que le globe terrestre, à l'image du cosmos, ressemblerait peu ou prou à un immense magma de glace. Il est remarquable de constater à quel point ces trois auteurs ont développé une sorte d'outillage conceptuel commun propre à diagnostiquer cette crise et à la résoudre en élaborant une nouvelle manière de se rapporter à l'espace et de décrire le paysage. Ce nouveau paradigme qui modélise un autre type de relation à l'extérieur est solidaire de courants de pensée post-rationalistes qui de Nietzsche à Gilles Deleuze, en passant par Bergson et la phénoménologie, ont conduit à un démantèlement de la conception cartésienne de la conscience dans son rapport à l'étendue. Aux croisements de la philosophie et de la littérature se construit durant la première moitié du XXème siècle un nouveau modèle de représentation du paysage qui passe par l'élaboration de la ligne libre. Celle-ci décrit une manière de dire le réel qui ne consiste pas à en reproduire les composantes de façon fidèle, mais à tracer le mouvement énergétique par lequel le corps se rapporte à l'espace de manière dynamique et variée. Proche du terme de diagramme, exploité par Deleuze et relayé par le géographe Jean-Marc Besse, il consiste en un schème du réel qui s'élabore en cours d'expérience et ouvre sur une réalité à venir. De ce point de vue, la ligne libre définit une manière de se rapporter au réel qui remet en question les théories paysagères fondées sur Vartialisation. En prenant appui sur cette proximité d'intérêt entre une certaine philosophie et la littérature de voyage de la première moitié du XXème siècle, cette étude montre que la construction de ce nouveau paradigme permet de mettre en évidence un type de transfert peu conventionnel entre ces deux champs des sciences humaines. Car Segalen, Cendrars et Michaux n'ont pas vraiment repris aux philosophes des concepts, des syllogismes ou même des pensées, mais se sont approprié une figure dont ils ont libéré l'imaginaire sémantique. En lecteurs émerveillés de Nietzsche, ils ont surtout vu dans le voyageur Zarathoustra et dans sa manière de se déplacer dans le paysage, une façon stratégique de répondre à la crise de l'entropie. Mais si Zarathoustra incarne le mouvement de la ligne libre en lui conférant une valeur épistémique, il constitue également une figure imprégnée par la littérature de voyage et le genre de l'aventure. De ce point de vue, il apparaît que le développement de ce paradigme est redevable aussi bien de la philosophie que de la littérature de voyage et qu'une brève histoire de son élaboration révèle qu'une sémantique viatique accompagne la conception philosophique de cette ligne libre auprès des philosophes qui s'en approprient le modèle (Nietzsche, Bergson, Husserl, Heidegger, Merleau-Ponty, Deleuze).
Resumo:
Résumé : La microautophagie du noyau est un processus découvert chez la levure S. cerevisiae qui vise la dégradation de portions nucléaires dans la lumière vacuolaire. Ce processus appelé PMN (de l'anglais Piecemeal Microautophagy of the Nucleus) est induit dans des conditions de stress cellulaire comme la privation de nutriments, mais également par l'utilisation d'une drogue : la rapamycine. La PMN est due à l'interaction directe d'une protéine de la membrane externe de l'enveloppe nucléaire Nvj1p, et d'une protéine de la membrane vacuolaire Vac8p. L'interaction de ces deux protéines forme la jonction noyau-vacuole. Cette jonction guide la formation d'une invagination, qui englobe et étire vers la lumière vacuolaire une partie du noyau sous la forme d'un sac. Il s'en suit la libération d'une vésicule dégradée par les hydrolases. Les mécanismes moléculaires intervenant à différentes étapes de ce processus sont inconnus. Le but de ma thèse est de mettre en évidence de nouveaux acteurs qui interviennent dans la PMN. Dans la première partie de cette étude, nous présentons une procédure de sélection à la recherche de candidats jouant un rôle dans la PMN. Cette sélection a été effectuée dans la collection de mutants commercialisée chez Euroscarf. La procédure reposait sur l'observation que le nucléole (représenté par Nop1p) est le substrat préférentiel de la PMN dans des expériences de microscopie faites après induction de la PMN avec la rapamycine. Nous avons ainsi transformé la collection de mutants avec un plasmide portant le marqueur du nucléole Noplp. Par la suite, nous avons cherché par microscopie les mutants incapables de transférer Nop1p du noyau à la vacuole. Nous avons trouvé 318 gènes présentant un défaut de transfert de Nop1p par PMN. Ces gènes ont été classés par grandes familles fonctionnelles et aussi par leur degré de défaut de PMN. Egalement dans cette partie de l'étude, nous avons décrit des mutants impliqués dans le processus, à des étapes différentes. Dans la seconde partie de l'étude, nous avons regardé l'implication et le rôle de la V-ATPase, (une pompe à protons de la membrane vacuolaire}, sélectionnée parmi les candidats, dans le processus de PMN. Les inhibiteurs de ce complexe, comme la concanamycineA, bloquent l'activité PMN et semblent affecter le processus à deux étapes différentes. D'un autre côté, les jonctions «noyau-vacuole »forment une barrière de diffusion au niveau de la membrane vacuolaire, de laquelle Vphlp, une protéine de la V-ATPase, est exclue.
Resumo:
Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.
Resumo:
L'Etude Suisse de Cohorte VIH a été mise en place en 1988. Plusieurs centres participent à cette étude : les hôpitaux universitaires de Zurich, Berne, Bâle, Genève et Lausanne, les hôpitaux cantonaux de Saint-Gall et du Tessin, 14 hôpitaux régionaux, ainsi que 35 praticiens privés. Cette étude a collecté des données de plus de 16500 personnes infectées par le VIH, de 1981 jusqu'aujourd'hui.¦Actuellement, plus de 7000 patients sont suivis tous les 6 mois. Parmi les analyses demandées au cours de ce suivi figure un test annuel de dépistage de la syphilis. Ce dépistage consiste en un test TPHA (Treponema Pallidum Haemagglutination Assay) où l'on observe l'hémagglutination de globules rouges qui ont absorbé des antigènes du tréponème, ou ses équivalents LIAISON et ARCHITECT.¦Si ce test TPHA est positif, un test VDRL, qui détecte des anticorps dirigés contre la cardiolipine, est effectué.¦Pour des raisons économiques, ce dépistage annuel systématique de la syphilis est remis en question par l'un des médecins praticiens participant à l'Etude Suisse de Cohorte VIH, estimant que ce dépistage ne devrait être demandé chaque année que chez les personnes étant identifiées comme à risque.¦Notre objectif est d'évaluer la nécessité de faire un dépistage de la syphilis annuel chez tous les patients de la Cohorte en comparaison à un dépistage annuel seulement chez le groupe jugé à risque.¦Pour pouvoir répondre à cette question, nous allons dans un premier temps faire une analyse descriptive : nous allons analyser quels patients ont développé une séroconversion en fonction de l'âge, du sexe et de la voie d'infection du VIH la plus probable (voie homosexuelle, hétérosexuelle ou consommation de drogues).¦Une conversion du test TPHA de négatif à positif n'est pas toujours synonyme d'infection à treponema pallidum. Une infection diagnostiquée au stade primaire et traitée efficacement ne provoque pas nécessairement des anticorps. A l'inverse, le test TPHA peut être faussement positif dû à une réaction croisée (p.ex. framboesie) ou non-spécifique (maladies auto-immunes). Pour l'analyse descriptive nous devons toutefois nous limiter à la séroconversion.¦Pour pouvoir faire cette analyse nous devons extraire certaines données, et procéder à un « nettoyage » de celles-ci : en effet, nous ne pouvons garder que les données des 700 patients ayant au moins un test initial de TPHA négatif, suivi d'un test TPHA positif avec un VDRL positif.¦Puis nous allons faire une étude « cas-témoins » pour comparer l'anamnèse sexuelle des patients présentant une séroconversion avec celle des patients qui n'ont pas développé d'anticorps, afin d'évaluer si nous pouvons définir, d'après l'anamnèse sexuelle, un groupe de sujets plus à risque de développer une syphilis. Cas et témoins seront stratifiés selon l'âge, le sexe et le mode d'infection du VIH.¦Comme troisième étape nous allons définir, pour un sous-échantillon, si le résultat positif du dépistage a permis de diagnostiquer la syphilis ou si le diagnostique avait déjà été établi grâce à la présence de symptômes.¦Etant donné que ce dépistage systématique est remis en cause pour des raisons financières, nous allons finalement, au cours de cette étude, estimer le coût des différentes options.¦Notre hypothèse, tirée d'après les déclarations de cas de syphilis de l'OFSP (Office Fédéral de la Santé Publique) et l'expérience des cliniciens, est que l'on trouve en effet que les homosexuels de moins de 50 ans représentent un grand pourcentage des personnes infectées par la syphilis. Cependant, nous ne savons pas si la fréquence d'infection des autres groupes de patients est suffisamment élevée pour justifier ce dépistage systématique.