1000 resultados para Bien-Être
Resumo:
Qui a écrit la première histoire du christianisme ? La recherche historienne moderne a rarement hésité à pointer le doigt vers Eusèbe de Césarée, ainsi que le rappellent dans ce dossier les contributions de M. Fédou et de M. Heinzelmann. Une telle reconnaissance devait amener une dégradation de la qualité historienne de l'oeuvre lucanienne, évangile et Actes des Apôtres, reconnue jusqu'au XVIIIe siècle. Ainsi, jusque dans les années 60 du XX' siècle, la recherche sur cette oeuvre devait être dominée par cette tonalité lourde. Une révision de ces attitudes, dont certaines se sont manifestées dès le début de ce même siècle, s'est depuis engagée, grâce notamment à une meilleure connaissance et acceptation des caractéristiques de l'historiographie ancienne. C'est donc un véritable historien qui se révèle désormais dans l'oeuvre lucanienne, légitimant du même coup le concept d'histoire théologique, et rendant à Luc sa place, la première, bien avant Eusèbe de Césarée.
Resumo:
Les récits de conversion religieuse présentent plusieurs traits communs avec les récits de découvertes scientifiques (Aha-Erlebnisse, expériences de eurêka): événement instantané, exceptionnel, inattendu, marquant une rupture par rapport au passé. Or, il s'agit dans les deux cas de reconstructions a posteriori qui ont tendance à survaloriser le caractère instantané d'un événement au détriment du processus organisant la mise en place d'une nouvelle vision du monde. Howard Gruber l'a très bien montré dans son étude consacrée à Charles Darwin. Là où le récit autobiographique, formulé une quarantaine d'années après l'énoncé de la théorie de la sélection naturelle, donne l'impression d'une intuition subite, les carnets de notes, rédigés à l'époque où s'élabore la théorie, permettent de mettre en évidence un processus créatif qui s'étale sur près d'un an et demi. Ce constat peut être étendu aux récits de conversion religieuse. Le cas de Martin Luther en est une excellente illustration. Ce parallèle entre découverte scientifique et conversion religieuse jette un éclairage nouveau sur cette dernière: l'événement inattendu où tout bascule doit être articulé avec un processus psychologique qui le porte et même le décompose sur une durée bien plus longue que ce que la mémoire ne le reconstruit après-coup. Au point qu'il n'est pas exagéré de voir dans le récit d'une conversion religieuse, ne serait-ce que pour une part, l'expression de la créativité d'un sujet qui invente une solution au problème de sa vie.
Resumo:
ABSTRACT : Ostracods are benthic microcrustaceans enclosed in low-Mg calcite bivalves. Stable isotope compositions, Mg/Ca, and Sr/Ca ratios of ostracod fossil valves have proven useful to reconstruct past environmental conditions. Yet, several discrepancies persist and the influence of many factors remains unclear. It is the aim of this study to improve the use of ostracod valve geochemistry as palaeoenvironmental proxies by examining the extent of isotope fractionation and trace element partitioning during valve calcification. To achieve this, the environmental parameters (pH, temperature) and chemical composition of water (C-and O-isotope composition and calcium, magnesium, and strontium content) were measured at sites where living ostracods were sampled. The sampling was on a monthly basis over the course of one year at five different water depths (2, 5, 13, 33, and 70 m) in Lake Geneva, Switzerland. The one-year sampling enabled collection of environmental data for bottom and interstitial pore water. In littoral to sublittoral zones, C-isotope composition of DIC and the Mg/Ca and Sr/Ca ratios of water are found to vary concomitantly with water temperature. This is due to the precipitation of calcite, which is induced by higher photosynthetic activity as temperature and/or solar radiation intensify in summer. In deeper zones, environmental parameters remain largely constant throughout the year. Variations of pH, DIC concentrations and C-isotope compositions in interstitial water result from aerobic as well as anaerobic respiration, calcite dissolution and methanogenesis. Bathymetric distribution, life cycles, and habitats were derived for 15 ostracod species and are predominantly related to water temperature and sediment texture. O-isotope compositions of ostracod valves in Lake Geneva reflect that of water and temperature. However, offsets of up to 3 permil are observed in comparison with proposed inorganic calcite precipitation equilibrium composition. Deprotonation of HCO3- and/or salt effect at crystallisation sites may explain the disequilibrium observed for O-isotopic compositions. C-isotope compositions of ostracod valves are not as well constrained and appear to be controlled by a complex interaction between habitat preferences and seasonal as well as spatial variations of the DIC isotope composition. For infaunal forms, C-isotope compositions reflect mainly the variation of DIC isotope composition in interstitial pore waters. For epifaunal forms, C-isotope compositions reflect the seasonal variation of DIC isotope compositions. C-isotope compositions of ostracod valves is at equilibrium with DIC except for a small number of species (L. inopinata, L. sanctipatricii and possibly C. ophtalmica, and I. beauchampi). Trace element uptake differs considerably from species to species. For most epifaunal forms, trace element content follows the seasonal cycle, recording temperature increases and/or variations of Mg/Ca and Sr/Ca ratios of water. In contrast, infaunal forms are predominantly related to sediment pore water chemistry. RÉSUMÉ EN FRANÇAIS : Les ostracodes sont de petits crustacés benthiques qui possèdent une coquille faite de calcite à faible teneur en magnésium. La composition isotopique et les rapports Mg/Ca et Sr/Ca d'ostracodes fossiles ont été utilisés maintes fois avec succès pour effectuer des reconstructions paléoenvironnementales. Néanmoins, certains désaccords persistent sur l'interprétation de ces données. De plus, l'influence de certains facteurs pouvant biaiser le signal reste encore inconnue. Ainsi, le but de cette étude est de rendre plus performant l'emploi de la composition géochimique des ostracodes comme indicateur paléoenvironnemental. Pour réaliser cela, cinq sites situés dans le Léman à 2, 5, 13, 33 et 70 m de profondeur ont été choisis pour effectuer les échantillonnages. Chaque site a été visité une fois par mois durant une année. Les différents paramètres environnementaux (pH, température) ainsi que la composition géochimique de l'eau (composition isotopique de l'oxygène et du carbone ainsi que teneur en calcium, magnésium et strontium) ont été déterminés pour chaque campagne. Des ostracodes vivants ont été récoltés au cinq sites en même temps que les échantillons d'eau. Ce travail de terrain a permis de caractériser la géochimie de l'eau se trouvant juste au-dessus des sédiments ainsi que celle de l'eau se trouvant dans les interstices du sédiment. Dans les zones littorales à sublittorales, la composition isotopique du carbone inorganique dissout (CID) ainsi que les rapports Mg/Ca et Sr/Ca de l'eau varient linéairement avec la température. Ceci peut être expliqué par la précipitation de calcite qui est contrôlée par l'activité photosynthétique, variant elle même linéairement avec la température. Dans les zones plus profondes, les paramètres environnementaux restent relativement constants tout au long de l'année. Les variations du pH, de la concentration et de la composition isotopique du CID dans les sédiments résultent de la libération de carbone engendrée par la dégradation de la matière organique avec présence d'oxygène ou via réduction de nitrates et de sulfates, par la dissolution de carbonates, ainsi que par la méthanogenèse. La distribution bathymétrique, le cycle de vie ainsi que l'habitat de 15 espèces ont été déterminés. Ceux-ci sont principalement reliés à la température de l'eau et à la texture des sédiments. La composition isotopique de l'oxygène des valves d'ostracodes reflète celle de l'eau et la température qui régnait lors de la calcification. Néanmoins, des écarts pouvant aller jusqu'à 3 0/00 par rapport à l'équilibre théorique ont été obtenus. La déprotonation de HCO3 ou un 'effet de sel' pourrait être à l'origine du déséquilibre observé. La composition isotopique du carbone des valves d'ostracodes n'est pas aussi bien cernée. Celle-ci semble être principalement contrôlée par une interaction complexe entre l'habitat des ostracodes et les variations saisonnières et spatiales de la composition isotopique du CID. Pour les espèces endofaunes, la composition isotopique du carbone reflète principalement la variation de la composition isotopique du CID à l'intérieur des sédiments. Pour les formes épifaunes, c'est la variation saisonnière de la composition du CID qui contrôle celle de la coquille des ostracodes. En général, la composition isotopique du carbone des valves d'ostracodes est en équilibre avec celle de CID, hormis pour quelques rares espèces (L. inopinata, L. sanctipatricii et peut-être C. ophtalmica et I. beauchampi). L'incorporation des éléments traces diffère passablement d'une espèce à l'autre. Pour la plupart des espèces épifaunes, la teneur en éléments traces des coquilles reflète les variations saisonnières. Ces espèces semblent enregistrer les variations soit de la température soit des rapports Mg/Ca et Sr/Ca de l'eau. La teneur en élément traces des formes infaunales, au contraire, est principalement reliée à la chimie de l'eau interstitielle. RÉSUMÉ GRAND-PUBLIC : La connaissance de l'évolution du climat dans le futur est primordiale pour notre société, car elle permet de développer différentes stratégies pour faire face aux problèmes engendrés pas le changement climatique : stratégies environnementale, humanitaire, ou encore économique. Cette problématique est actuellement, à juste titre, sujet d'une vive préoccupation. La géologie peut-elle contribuer à l'effort communautaire entrepris? Naturellement, ce sont les climatologues qui sont sur le devant de la scène. Il n'empêche que ces derniers, pour pouvoir prédire l'avenir, doivent s'appuyer sur le passé. La géologie est alors d'un grand intérêt car c'est effectivement la seule science qui permette d'estimer les variations climatiques à grande échelle sur de longues périodes. Ainsi, voulant moi-même contribuer aux recherches menées dans ce domaine, je me suis tourné à la fin de mes études vers la paléoclimatologie, science qui a pour but de reconstruire le climat des temps anciens. Nous nous sommes rendu compte que l'évolution climatique de la région où nous habitons n'avait pas encore fait le sujet d'études approfondies. Il est pourtant important de connaître la variation locale des changements climatiques pour obtenir des modèles climatiques fiables. En conséquence, un vaste projet a vu le jour : reconstruire, à l'aide des sédiments du lac Léman, les variations paléoclimatiques et paléo-environnementales depuis le retrait du Glacier de Rhône, il y a environ 15'000 ans, jusqu'à nos jours. Pour ce genre de travail, la géochimie, qui est une forme de chimie, utilisée en science de la terre regroupant la chimie classique et la chimie isotopique, est une alliée particulièrement efficace. Elle permet en effet, via différentes mesures faites sur des archives géologiques (par exemple des fossiles ou des sédiments) d'obtenir des informations, souvent quantitatives, sur les conditions (le climat, la flore ou encore la bio productivité, etc...) qui régnaient il y a fort longtemps. Les coquilles d'ostracodes, qui sont de petits animaux vivant au fond des lacs, sont une des archives les plus prometteuses. Ces animaux sont des petits crustacés s'entourant d'une coquille calcaire qu'ils sécrètent eux-mêmes. A la mort de l'animal, la coquille est intégrée dans les sédiments et reste intacte à travers les âges. Des études ont montré qu'en analysant la géochimie de ces coquilles fossiles, il est possible de reconstruire les conditions environnementales qui régnaient à l'époque de vie de ces fossiles. Cette démarche nécessite qu'une condition bien précise soit remplie: la composition géochimique de la coquille doit enregistrer de manière fidèle la chimie de l'eau et/ou la température de l'eau présentes au moment de la sécrétion de la coquille. Le but spécifique de notre recherche a précisément été d'étudier la façon dont la chimie de l'eau ainsi que sa température sont enregistrées dans la coquillé des ostracodes. Une fois les relations entre ces divers paramètres dans l'étant actuel du système établies, il sera alors possible de les utiliser pour interpréter des données issues de coquilles fossiles. Pour ce faire, nous avons mesuré la température de l'eau de manière continue et récolté mensuellement des échantillons d'eau et des ostracodes vivants pendant une année. Cinq sites situés à 2, 5, 13, 33 et 70 mètres de profondeur ont été choisis pour effectuer ces échantillonnages dans le Léman. Le travail de terrain nous a amené à étudier la biologie de 15 espèces. Nous avons pu établir la profondeur à laquelle vivent ces animaux, leur période de développement ainsi que leur habitat respectifs. Ces résultats ont permis de mieux cerner la relation qu'il existe entre la chimie de l'eau, sa température et la composition géochimique des coquilles d'ostracodes. Nous avons ainsi pu confirmer que les coquilles d'ostracodes enregistrent de manière fidèle la composition chimique et isotopique de l'eau. De même, nous avons pu établir de manière plus précise l'effet de la température sur la géochimie des coquilles. Néanmoins, les relations trouvées entre ces trois éléments sont plus complexes pour certaines espèces, cette complexité étant souvent liée à un caractère spécifique de leur écologie. Nous avons mis en lumière certains effets qui biaisent les résultats et défini précisément les conditions dans lesquelles on peut s'attendre à avoir des difficultés dans leur interprétation. Maintenant que nous avons établi les relations entre le climat actuel et la composition géochimique des coquilles d'ostracodes actuels, nous pouvons, sur la base de ce modèle, reconstruire le climat depuis le retrait du Glacier du Rhône jusqu'à nos jours à l'aide d'ostracodes fossiles. Mais cela est une autre histoire et fera, je l'espère, le sujet de nos futures recherches.
Resumo:
Si La notion de Bien commun paraît de prime abord trop ambitieuse, trompeuse en ses promesses excessives et inaccessibles, elle est néanmoins nécessaire au débat éthique dans l'espace public contemporain. Dans cette contribution, nous voudrions montrer comment une compréhension critique de la notion controversée de Bien commun peut s'avérer compatible avec une prise en compte réaliste et responsable des conflits d'intérêts et de la délibération éthique. L'exemple du débat français sur la laïcité permet à cet égard de comprendre la nécessité de dépasser l'opposition stérile entre un communautarisme poussé à l'extrême et un universalisme vidé de sa pertinence historique et dialectique. If, at the first look, the notion of the common Good seems too ambitious, making excessive and unaccessible promises, it is nevertheless necessary to use it in the ethical public discussion. This paper aims to show that a critical understanding of this controversial idea of the common Good may help to solve some conflicts of interests. The example of the french debate on laicity should help us to overcome the fallacious opposition between extreme communitarianism and abstract universalism.
Resumo:
AbstractPPARP is a nuclear receptor responding in vivo to several free fatty acids, and implicated in cell metabolism, differentiation and survival. PPARp is ubiquitously expressed but shows high expression in the developing and adult brain. PPARp is expressed in different cell types such as neurons and astrocytes, where it might play a role in metabolism. To study this nuclear receptor the laboratory engineered a PPARP -/- mouse model. The aim of my PhD was to dissect the role of PPARP in astrocytes.Experiments in primary culture revealed that cortical astrocytes from PPARP -/- mouse have an impaired energetic metabolism. Unstimulated PPARP -/- astrocytes exhibit a 30% diminution in glucose uptake, correlating to a 30% decrease in lactate release and intracellular glucose. After acute stimulation by D- aspartate mimicking glutamate exposure, both WT and -/- astrocytes up-regulate their metabolism to respond to the increasing energy needed (ATP) for glutamate uptake. According to the Astrocyte Neuron Lactate Shuttle Hypothesis (ANLSH), the ratio between glucose uptake/ lactate release is 1. However, stimulated PPARp -/- astrocytes display a higher increase in lactate release than glucose uptake which remains lower than in WT. The extra glucose equivalents could come from the degradation of intra cellular glycogen stores, which indeed decrease in PPARP -/- cells upon stimulation. Lower glucose metabolism correlates with a decreased acute glutamate uptake in PPARP -/- astrocytes. Reciprocally, we also observed an increase of glutamate uptake and ATP production after treatment of WT astrocytes with a PPARp agonist. Glutamate transporter protein expression is not affected. However, their trafficking and localization might be altered as PPARp -/- astrocytes have higher cholesterol levels, which may also affect proper transporter structure in the membrane.Metabolism, transporter localization and cholesterol levels are respectively linked to cell mobility, cell cytoskeleton and cellular membrane composition. All three functions are important in astrocytes to in vivo acquire star shaped morphology, in a process known as stellation. PPARP -/- astrocytes showed an impaired acquired stellation in presence of neurons or chemical stimuli, as well as more actin stress fibers and cell adhesion structures. While non stellation of astrocytes is mainly an in vitro phenomenon, it reveals PPARp -/- primary astrocytes inability to respond to different exterior stimuli. These morphological phenotypes correlate with a slower migration in cell culture wound healing assays.This thesis work demonstrates that PPARp is implicated in cortical astrocyte glucose metabolism. PPARp absence leads to an unusual intracellular glycogen use. Added to the effect on acute glutamate uptake and astrocyte migration, PPARp could be an interesting target for neuroprotection therapies.RésuméPPARP est un récepteur nucléaire qui a pour ligands naturels certains acides gras libres. Il est impliqué dans le métabolisme, la différentiation et la survie des cellules. PPARP est ubiquitaire, et a une expression élevée dans le cerveau en développement ainsi qu'adulte. PPARp est exprimé dans différents types cellulaires tels que les neurones et les astrocytes, où il régule potentiellement leurs métabolismes. Pour étudier ce récepteur nucléaire, le laboratoire a créé un modèle de souris PPARp -/-. L'objectif de ma thèse est de comprendre le rôle de PPARp dans les astrocytes.Les expériences montrent un défaut du métabolisme énergétique dans les astrocytes corticaux primaires tirés de souris PPARp -/-. Sans stimulation, l'entrée du glucose dans les astrocytes PPARP -/- est diminuée de 30% ce qui correspond à une diminution de 30% du relargage du lactate. Après stimulation par du D-Aspartate qui mime une exposition au glutamate, les astrocytes WT et -/- augmentent leur métabolisme en réponse à la demande accrue en énergie (ATP) due à l'entrée du glutamate. D'après l'Astrocyte Neuron Lactate Shuttle Hypothesis (ANLSH), le ratio entre le glucose entrant et le lactate sortant est de 1. Cependant le relargage du lactate dans les astrocytes PPARP-/- est plus élevé que l'entrée du glucose. L'apport supplémentaire de glucose transformé en lactate pourrait provenir de la dégradation des stocks de glycogène intracellulaire, qui sont partiellement diminués après stimulation dans les cellules PPARP -/-. Un métabolisme plus faible du glucose corrèle avec une réduction de l'import du glutamate dans les astrocytes PPARp -/-. Réciproquement, nous observons une augmentation de l'import du glutamate et de la production d'ATP après traitement avec l'agoniste pour PPARp. Bien que l'expression des transporteurs de glutamate ne soit pas affectée, nous ne pouvons pas exclure que leur localisation et leur structure soient altérées du fait du niveau élevé de cholestérol dans les astrocytes PPARp -/-.Le métabolisme, la localisation des transporteurs et le niveau de cholestérol sont tous liés au cytosquelette, à la mobilité, et à la composition des membranes cellulaires. Toutes ces fonctions sont importantes pour les astrocytes pour acquérir leur morphologie in vivo. Les astrocytes PPARP -/- présentent un défaut de stellation, aussi bien en présence de neurones que de stimuli chimiques, ainsi qu'un plus grand nombre de fibres de stress (actine) et de structures d'adhésion cellulaire. Bien que les astrocytes non stellaires soient principalement observés in vitro, le défaut de stellation des astrocytes primaires PPARp -/- indique une incapacité à répondre aux différents stimuli extérieurs. Ces phénotypes morphologiques corrèlent avec une migration plus lente en cas de lésion de la culture.Ce travail de thèse a permis de démontrer l'implication de PPARP dans le métabolisme du glucose des astrocytes corticaux. L'absence de ce récepteur nucléaire amène à l'utilisation du glucose intracellulaire, auquel s'ajoutent les effets sur l'import du glutamate et la migration des astrocytes. PPARp aurait des effets neuroprotecteurs, et de ce fait pourrait être utilisé à des fins thérapeutiques.
Resumo:
L'exposition aux bactéries résistantes aux antibiotiques, en particulier à Staphylococcus aureus résistant à la méthicilline (SARM (1)) sur le lieu de travail, a été montrée comme étant un facteur de risque pour la santé des opérateurs, la fréquence des contacts avec cette bactérie augmentant la probabilité d'en devenir porteur. En plus du fait que les SARM augmentent d'un facteur 4 le risque d'infection chez le porteur, le choix du traitement antibiotique en cas d'infection est fortement limité. C'est pourquoi il est important d'identifier les environnements de travail et les conditions qui favorisent la transmission de cette bactérie de l'animal à l'Homme. La résistance à la méthicilline est conférée au S. aureus par un élément génétique mobile, appelé « staphylococcal cassette chromosome » mec (SCCmec), qui contient le gène de résistance à la méthicilline, mecA. SCCmec a cinq formes (I, II, III, IV and V) qui ont été acquises et intégrées dans le génome de S. aureus lors d'événements indépendants de transfert horizontal. Certaines de ces lignées spécifiquement associées au bétail traité aux antibiotiques (tel que le complexe clonal 398, CC398 (2)), peuvent également coloniser le nez humain. Ainsi, la colonisation nasale ou contamination a été constatée chez 23 à 86 % des agriculteurs et vétérinaires ayant un contact direct avec des porcs, ainsi que chez un à cinq pour cent des personnes ayant une exposition indirecte (par exemple les membres de la famille d'agriculteurs, les visiteurs de la ferme). La pathogénicité du SARM CC398 pour l'Homme a été documentée dans une série de rapports décrivant des cas d'endocardite, d'otomastoïdite et de pneumonie. En outre, le SARM CC398 a été introduit dans des structures de santé (hôpitaux, cliniques, etc.) situées principalement dans les zones d'élevage à forte densité. Si les porcs sont des vecteurs bien connus de transmission de CC398 à l'Homme, d'autres animaux peuvent l'être également, tels que les dindes en Allemagne, comme illustré par le premier article cité dans cette note. Par ailleurs, la propagation de ces souches résistantes aux antibiotiques est inquiétante. Le deuxième article de cette note révèle l'apparition de souches de CC398 dans le lait de vache au Royaume-Uni pays où, jusqu'alors, la surveillance n'en avait pas détecté.
Resumo:
Dans les dernières années du 20ème siècle, l'aluminium a fait l'objet de beaucoup de communications outrancières et divergentes cautionnées par des scientifiques et des organismes faisant autorité. En 1986, la société PECHINEY le décrète perpétuel tel le mouvement « L'aluminium est éternel. Il est recyclable indéfiniment sans que ses propriétés soient altérées », ce qui nous avait alors irrité. Peu de temps après, en 1990, une communication tout aussi outrancière et irritante d'une grande organisation environnementale, le World Wild Fund, décrète que « le recyclage de l'aluminium est la pire menace pour l'environnement. Il doit être abandonné ». C'est ensuite à partir de la fin des années 1990, l'explosion des publications relatives au développement durable, le bien mal nommé. Au développement, synonyme de croissance obligatoire, nous préférons société ou organisation humaine et à durable, mauvaise traduction de l'anglais « sustainable », nous préférons supportable : idéalement, nous aurions souhaité parler de société durable, mais, pour être compris de tous, nous nous sommes limités à parler dorénavant de développement supportable. Pour l'essentiel, ces publications reconnaissent les très graves défauts de la métallurgie extractive de l'aluminium à partir du minerai et aussi les mérites extraordinaires du recyclage de l'aluminium puisqu'il représente moins de 10% de la consommation d'énergie de la métallurgie extractive à partir du minerai (on verra que c'est aussi moins de 10% de la pollution et du capital). C'est précisément sur le recyclage que se fondent les campagnes de promotion de l'emballage boisson, en Suisse en particulier. Cependant, les données concernant le recyclage de l'aluminium publiées par l'industrie de l'aluminium reflètent seulement en partie ces mérites. Dans les années 1970, les taux de croissance de la production recyclée sont devenus plus élevés que ceux de la production électrolytique. Par contre, les taux de recyclage, établis à indicateur identique, sont unanimement tous médiocres comparativement à d'autres matériaux tels le cuivre et le fer. Composante de l'industrie de l'aluminium, le recyclage bénéficie d'une image favorable auprès du grand public, démontrant le succès des campagnes de communication. A l'inverse, à l'intérieur de l'industrie de l'aluminium, c'est une image dévalorisée. Les opinions émises par tous les acteurs, commerçants, techniciens, dirigeants, encore recueillies pendant ce travail, sont les suivantes : métier de chiffonnier, métier misérable, métier peu technique mais très difficile (un recycleur 15 d'aluminium n'a-t-il pas dit que son métier était un métier d'homme alors que celui du recycleur de cuivre était un jeu d'enfant). A notre avis ces opinions appartiennent à un passé révolu qu'elles retraduisent cependant fidèlement car le recyclage est aujourd'hui reconnu comme une contribution majeure au développement supportable de l'aluminium. C'est bien pour cette raison que, en 2000, l'industrie de l'aluminium mondiale a décidé d'abandonner le qualificatif « secondaire » jusque là utilisé pour désigner le métal recyclé. C'est en raison de toutes ces données discordantes et parfois contradictoires qu'a débuté ce travail encouragé par de nombreuses personnalités. Notre engagement a été incontestablement facilité par notre connaissance des savoirs indispensables (métallurgie, économie, statistiques) et surtout notre expérience acquise au cours d'une vie professionnelle menée à l'échelle mondiale dans (recherche et développement, production), pour (recherche, développement, marketing, stratégie) et autour (marketing, stratégie de produits connexes, les ferro-alliages, et concurrents, le fer) de l'industrie de l'aluminium. Notre objectif est de faire la vérité sur le recyclage de l'aluminium, un matériau qui a très largement contribué à faire le 20ème siècle, grâce à une revue critique embrassant tous les aspects de cette activité méconnue ; ainsi il n'y a pas d'histoire du recyclage de l'aluminium alors qu'il est plus que centenaire. Plus qu'une simple compilation, cette revue critique a été conduite comme une enquête scientifique, technique, économique, historique, socio-écologique faisant ressortir les faits principaux ayant marqué l'évolution du recyclage de l'aluminium. Elle conclut sur l'état réel du recyclage, qui se révèle globalement satisfaisant avec ses forces et ses faiblesses, et au-delà du recyclage sur l'adéquation de l'aluminium au développement supportable, adéquation largement insuffisante. C'est pourquoi, elle suggère les thèmes d'études intéressant tous ceux scientifiques, techniciens, historiens, économistes, juristes concernés par une industrie très représentative de notre monde en devenir, un monde où la place de l'aluminium dépendra de son aptitude à satisfaire les critères du développement supportable. ABSTRACT Owing to recycling, the aluminium industry's global energetic and environmental prints are much lower than its ore extractive metallurgy's ones. Likewise, recycling will allow the complete use of the expected avalanche of old scraps, consequently to the dramatic explosion of aluminium consumption since the 50's. The recycling state is characterized by: i) raw materials split in two groups :one, the new scrap, internal and prompt, proportional to semi-finished and finished products quantities, exhibits a fairly good and regular quality. The other, the old scrap, proportional to the finished products arrivïng at their end-of--life, about 22 years later on an average, exhibits a variable quality depending on the collect mode. ii) a poor recycling rate, near by that of steel. The aluminium industry generates too much new internal scrap and doesn't collect all the availa~e old scrap. About 50% of it is not recycled (when steel is recycling about 70% of the old scrap flow). iii) recycling techniques, all based on melting, are well handled in spite of aluminium atiiníty to oxygen and the practical impossibility to purify aluminium from any impurity. Sorting and first collect are critical issues before melting. iv) products and markets of recycled aluminium :New scraps have still been recycled in the production lines from where there are coming (closed loop). Old scraps, mainly those mixed, have been first recycled in different production lines (open loop) :steel deoxidation products followed during the 30's, with the development of the foundry alloys, by foundry pieces of which the main market is the automotive industry. During the 80's, the commercial development of the beverage can in North America has permitted the first old scrap recycling closed loop which is developing. v) an economy with low and erratic margins because the electrolytic aluminium quotation fixes scrap purchasing price and recycled aluminium selling price. vi) an industrial organisation historically based on the scrap group and the loop mode. New scrap is recycled either by the transformation industry itself or by the recycling industry, the remelter, old scrap by the refiner, the other component of the recycling industry. The big companies, the "majors" are often involved in the closed loop recycling and very seldom in the open loop one. To-day, aluminium industry's global energetic and environmental prints are too unbeara~ e and the sustainaЫe development criteria are not fully met. Critical issues for the aluminium industry are to better produce, to better consume and to better recycle in order to become a real sustainaЫe development industry. Specific issues to recycling are a very efficient recycling industry, a "sustainaЫe development" economy, a complete old scrap collect favouring the closed loop. Also, indirectly connected to the recycling, are a very efficient transformation industry generating much less new scrap and a finished products industry delivering only products fulfilling sustainaЫe development criteria.
Resumo:
L'héritage d'un grand événement sportif peut être perçu de multiples façons. On peut le voir comme positif ou négatif, tangible ou intangible, territorial ou personnel, intentionnel ou non, global ou local, à court ou long terme, lié au sport ou non, et aussi selon la perspective de ses différentes parties prenantes. En fait, il est bien plus approprié d'employer le terme d'héritages au pluriel qu'au singulier. Cet article donne une vue d'ensemble d'un concept souvent utilisé mais rarement défini - celui d'héritage (legacy en anglais) - en utilisant des exemples provenant des Jeux olympiques et des Jeux du Commonwealth, deux des plus grands événements sportifs multisports régulièrement organisés. Il conclue que l'héritage est pour l'essentiel un rêve à poursuivre plutôt qu'une certitude à atteindre pour ce qui concerne les grands événements sportifs.
Resumo:
Purpose: To study the filtering site using ultrasound biomicroscopy. (UBM) after posterior deep sclerectomy with Ex-PRESS? X-50 implant in patients undergoing filtering surgery.¦Methods: Twenty-six patients that participated in this prospective, non comparative study underwent a posterior deep sclerectomy and an Ex- PRESS? X-50 tube implantation. Clinical outcome factors recorded include: intraocular pressure, number of antiglaucoma medications, best corrected visual acuity (BCVA), frequency and types of complications. Six months postoperatively, an ultrasound biomicroscopy examination was performed.¦Results: Mean follow up was 12.0±3.4 months. Mean IOP decreased from 21 ±5.7 mmHg to 12.4±3 mmHg. At last follow-up examination, 65% of eyes had a complete success and 30% a qualified success. The mean number of antiglaucoma medications decreased from 2.5±1.2 preoperatively to 0.7±1 at the last follow-up postoperatively. BCVA was not changed. 27 complications were observed. On the UBM images, the mean intrascleral space volume was 0.25±0.27 mm3 and no relationship was found between volume and intraocular pressure reduction. We noted in 5/26 (19%) eyes a suprachoroïdal hypoechoic. Low-reflective blebs (L-type) were the most common: 15/26 (58%). No correlation between UBM findings and surgical success was evident.¦Conclusions: Deep sclerectomy with Ex-PRESS? X-50 tube implantation seems an efficient glaucoma surgery. It allows satisfactory IOP reduction with a low number of post operative complications. The advantages of deep sclerectomy with collagen implant are maintained with this modified technique. In both, the same reflective types of filtering blebs are present (high, low, encapsulated and flat). The UBM underlines the three mechanisms of aqueous humor resorption previously identified but no correlation with surgical success can be proved.¦-¦Ce travail de thèse est une analyse par ultrasonographic biomicroscopique (UBM) du site de filtration après sclérectomie profonde postérieure modifiée avec implantation d'un tube Ex- PRESS? X-50.¦Vingt six patients atteints d'un glaucome à angle ouvert, ont participé à cette étude prospective et non-comparative. Le critère d'inclusion est un glaucome à angle ouvert non contrôlé malgré un traitement topique maximal.¦Différents types de chirurgie filtrante sont effectués dans la chirurgie du glaucome dont la trabéculectomie et la sclérectomie profonde.¦L'intervention chirurgicale pratiquée dans cette étude consiste en l'implantation d'un tube Ex-PRESS? X-50 de format défini (3 mm de longueur et 50 μπι de diamètre interne) dans la chambre antérieure,au niveau du trabeculum, sous un volet scléral, ce qui permet le drainage de l'humeur aqueuse vers les espaces sous-conjonctivaux, avec diminution de la pression intraoculaire.¦Cette technique implique uniquement une dissection d'un volet scléral superficiel , sans volet scléral profond comme d'une sclérectomie profonde classique.¦Les modes de fonctionnement de cette sclérectomie profonde modifiée sont explorés par UBM, qui donne des images à haute résolution, semblables à des coupes anatomiques. Le volume de l'espace intrascléral créé artificiellement peut en effet être mesuré et mis en corrélation avec la pression intraoculaire et donc avec le taux de succès. Les différents types d'échogénécité de la bulle de filtration sous-conjonctivale provoquée par la dérivation de l'humeur aqueuse sont également observés. La présence éventuelle d'une filtration supplémentaire au niveau choroïdien est aussi détectée.¦De février 2007 à juin 2008, nous avons suivi chez les vingt six yeux des vingt six patients le volume intrascléral, la filtration sous-conjonctivale et la filtration choroïdienne le cas échéant, de même que l'acuité visuelle, la pression intraoculaire, le nombre de traitement antihypertenseur topique et les complications.¦Les résultats démontrent une réduction de 41 % par rapport à la pression intraoculaire préopératoire, ce qui est statistiquement significatif (p<0.0005). En ce qui concerne l'acuité visuelle, les valeurs demeurent stables. Par ailleurs, le nombre de médicaments antiglaucomateux diminue de façon significative de 2.5 ± 1.2 en préopératoire à 0.7 ± 1.0 au dernier examen (p<0.0005). Le volume de l'espace intrascléral, apparaissant toujours en échographie d'aspect fusiforme, n'est pas corrélé de façon significative avec un meilleur succès chirurgical bien que l'on aperçoive une tendance à une corrélation entre un plus grand volume et une pression intraoculaire plus basse.¦La classification la bulle de filtration se fait selon les 4 catégories de bulle de filtration décrites dans la littérature. La répartition révèle une majorité de type L soit hypoéchogène: 15/26 (58%) et une proportion identique, soit, 4/26 (16%), de bulles hyperéchogènes (type H) et encapsulées (type E); les bulles de filtration plates et hyperéchogènes (type F) sont les moins nombreuses 3/26 (11 %).¦La ligne hyporéflective visible dans 19 % des cas entre la sclère et la choroïde représentant potentiellement un drainage suprachoroïdien, n'est pas associée statistiquement à une meilleure filtration et une pression intraoculaire plus basse mais demeure une troisième voie de filtration, en plus de la filtration sous-conjonctivale et intrasclérale.¦En conclusion, cette technique différente, offrant une plus grande sécurité et des résultats satisfaisants sur l'abaissement de la pression intraoculaire, peut être, dans certains cas, une alternative à la sclérectomie profonde classique ,dont elle partage les mécanismes de filtration objectivés par ultrasonographic biomicrioscopique.
Resumo:
(Résumé de l'ouvrage) Les textes recueillis dans ces deux volumes sont des apocryphes, ce qui signifie qu'en dépit d'un contenu comparable à celui des Écritures ils n'appartiennent pas au canon. En effet, soit ils s'écartent de la doctrine officielle de l'Église en véhiculant des idées hétérodoxes, soit ils font trop appel au merveilleux, aspect dont l'Église s'est toujours méfiée. Mais rappelons que le canon des Écritures n'a pas été fixé tout de suite, son histoire court jusqu'à la quatrième session du Concile de Trente (1546). Ajoutons aussi qu'il y a toujours désaccord en la matière entre l'Église catholique et les Églises protestantes pour certains livres. Les textes réunis dans le premier tome relèvent de l'Antiquité chrétienne et recoupent différents genres bibliques : évangiles (auquel il convient d'adjoindre des écrits relatant la vie et la dormition de Marie, mère de Jésus), épîtres, Actes des apôtres, apocalypses (sur les derniers temps et l'au-delà). Ces pièces sont précieuses. Elles permettent une connaissance plus approfondie des premiers temps de l'Église et la compréhension de traditions - dans le domaine de la piété, de la liturgie ou de l'art - dont nous n'avons pas trace dans les textes canoniques. Les textes réunis dans le second tome sont, dans leur majorité, plus tardifs. Ce volume accorde, d'autre part, une place plus grande que le premier à des livres qui circulèrent dans des aires religieuses et linguistiques autres que le monde byzantin et l'Occident latin ; les traditions copte, arabe, éthiopienne, arménienne y sont bien représentées. Pour la plupart, ces écrits n'avaient encore jamais été publiés en langue française. Les écrits chrétiens que l'on dit « apocryphes » n'ont cessé d'être diffusés, récrits, adaptés. Ils furent le terreau de l'imaginaire chrétien, et une source d'inspiration pour les sculpteurs, les peintres, les écrivains, les musiciens et les cinéastes : le Bunuel de La Voie lactée se souvient des Actes de Jean. C'est que, face au discours régnant, institutionnel, ces textes ouvrent un espace à l'imagination. Ils se développent en quelque sorte dans les interstices des livres canoniques. Ils comblent des vides, inscrivent une parole dans les silences, donnent une voix aux personnages muets, un nom et un visage à ceux qui n'étaient que des ombres. Comme toute littérature, ils rusent avec le discours clos.
Resumo:
Summary : Forensic science - both as a source of and as a remedy for error potentially leading to judicial error - has been studied empirically in this research. A comprehensive literature review, experimental tests on the influence of observational biases in fingermark comparison, and semistructured interviews with heads of forensic science laboratories/units in Switzerland and abroad were the tools used. For the literature review, some of the areas studied are: the quality of forensic science work in general, the complex interaction between science and law, and specific propositions as to error sources not directly related to the interaction between law and science. A list of potential error sources all the way from the crime scene to the writing of the report has been established as well. For the empirical tests, the ACE-V (Analysis, Comparison, Evaluation, and Verification) process of fingermark comparison was selected as an area of special interest for the study of observational biases, due to its heavy reliance on visual observation and recent cases of misidentifications. Results of the tests performed with forensic science students tend to show that decision-making stages are the most vulnerable to stimuli inducing observational biases. For the semi-structured interviews, eleven senior forensic scientists answered questions on several subjects, for example on potential and existing error sources in their work, of the limitations of what can be done with forensic science, and of the possibilities and tools to minimise errors. Training and education to augment the quality of forensic science have been discussed together with possible solutions to minimise the risk of errors in forensic science. In addition, the time that samples of physical evidence are kept has been determined as well. Results tend to show considerable agreement on most subjects among the international participants. Their opinions on possible explanations for the occurrence of such problems and the relative weight of such errors in the three stages of crime scene, laboratory, and report writing, disagree, however, with opinions widely represented in existing literature. Through the present research it was therefore possible to obtain a better view of the interaction of forensic science and judicial error to propose practical recommendations to minimise their occurrence. Résumé : Les sciences forensiques - considérés aussi bien comme source de que comme remède à l'erreur judiciaire - ont été étudiées empiriquement dans cette recherche. Une revue complète de littérature, des tests expérimentaux sur l'influence du biais de l'observation dans l'individualisation de traces digitales et des entretiens semi-directifs avec des responsables de laboratoires et unités de sciences forensiques en Suisse et à l'étranger étaient les outils utilisés. Pour la revue de littérature, quelques éléments étudies comprennent: la qualité du travail en sciences forensiques en général, l'interaction complexe entre la science et le droit, et des propositions spécifiques quant aux sources d'erreur pas directement liées à l'interaction entre droit et science. Une liste des sources potentielles d'erreur tout le long du processus de la scène de crime à la rédaction du rapport a également été établie. Pour les tests empiriques, le processus d'ACE-V (analyse, comparaison, évaluation et vérification) de l'individualisation de traces digitales a été choisi comme un sujet d'intérêt spécial pour l'étude des effets d'observation, due à son fort recours à l'observation visuelle et dû à des cas récents d'identification erronée. Les résultats des tests avec des étudiants tendent à prouver que les étapes de prise de décision sont les plus vulnérables aux stimuli induisant des biais d'observation. Pour les entretiens semi-structurés, onze forensiciens ont répondu à des questions sur des sujets variés, par exemple sur des sources potentielles et existantes d'erreur dans leur travail, des limitations de ce qui peut être fait en sciences forensiques, et des possibilités et des outils pour réduire au minimum ses erreurs. La formation et l'éducation pour augmenter la qualité des sciences forensiques ont été discutées ainsi que les solutions possibles pour réduire au minimum le risque d'erreurs en sciences forensiques. Le temps que des échantillons sont gardés a été également déterminé. En général, les résultats tendent à montrer un grand accord sur la plupart des sujets abordés pour les divers participants internationaux. Leur avis sur des explications possibles pour l'occurrence de tels problèmes et sur le poids relatif de telles erreurs dans les trois étapes scène de crime;', laboratoire et rédaction de rapports est cependant en désaccord avec les avis largement représentés dans la littérature existante. Par cette recherche il était donc possible d'obtenir une meilleure vue de l'interaction des sciences forensiques et de l'erreur judiciaire afin de proposer des recommandations pratiques pour réduire au minimum leur occurrence. Zusammenfassung : Forensische Wissenschaften - als Ursache und als Hilfsmittel gegen Fehler, die möglicherweise zu Justizirrtümern führen könnten - sind hier empirisch erforscht worden. Die eingestzten Methoden waren eine Literaturübersicht, experimentelle Tests über den Einfluss von Beobachtungseffekten (observer bias) in der Individualisierung von Fingerabdrücken und halbstandardisierte Interviews mit Verantwortlichen von kriminalistischen Labors/Diensten in der Schweiz und im Ausland. Der Literaturüberblick umfasst unter anderem: die Qualität der kriminalistischen Arbeit im Allgemeinen, die komplizierte Interaktion zwischen Wissenschaft und Recht und spezifische Fehlerquellen, welche nicht direkt auf der Interaktion von Recht und Wissenschaft beruhen. Eine Liste möglicher Fehlerquellen vom Tatort zum Rapportschreiben ist zudem erstellt worden. Für die empirischen Tests wurde der ACE-V (Analyse, Vergleich, Auswertung und Überprüfung) Prozess in der Fingerabdruck-Individualisierung als speziell interessantes Fachgebiet für die Studie von Beobachtungseffekten gewählt. Gründe sind die Wichtigkeit von visuellen Beobachtungen und kürzliche Fälle von Fehlidentifizierungen. Resultate der Tests, die mit Studenten durchgeführt wurden, neigen dazu Entscheidungsphasen als die anfälligsten für Stimuli aufzuzeigen, die Beobachtungseffekte anregen könnten. Für die halbstandardisierten Interviews beantworteten elf Forensiker Fragen über Themen wie zum Beispiel mögliche und vorhandene Fehlerquellen in ihrer Arbeit, Grenzen der forensischen Wissenschaften und Möglichkeiten und Mittel um Fehler zu verringern. Wie Training und Ausbildung die Qualität der forensischen Wissenschaften verbessern können ist zusammen mit möglichen Lösungen zur Fehlervermeidung im selben Bereich diskutiert worden. Wie lange Beweismitten aufbewahrt werden wurde auch festgehalten. Resultate neigen dazu, für die meisten Themen eine grosse Übereinstimmung zwischen den verschiedenen internationalen Teilnehmern zu zeigen. Ihre Meinungen über mögliche Erklärungen für das Auftreten solcher Probleme und des relativen Gewichts solcher Fehler in den drei Phasen Tatort, Labor und Rapportschreiben gehen jedoch mit den Meinungen, welche in der Literatur vertreten werden auseinander. Durch diese Forschungsarbeit war es folglich möglich, ein besseres Verständnis der Interaktion von forensischen Wissenschaften und Justizirrtümer zu erhalten, um somit praktische Empfehlungen vorzuschlagen, welche diese verringern. Resumen : Esta investigación ha analizado de manera empírica el rol de las ciencias forenses como fuente y como remedio de potenciales errores judiciales. La metodología empleada consistió en una revisión integral de la literatura, en una serie de experimentos sobre la influencia de los sesgos de observación en la individualización de huellas dactilares y en una serie de entrevistas semiestructuradas con jefes de laboratorios o unidades de ciencias forenses en Suiza y en el extranjero. En la revisión de la literatura, algunas de las áreas estudiadas fueron: la calidad del trabajo en ciencias forenses en general, la interacción compleja entre la ciencia y el derecho, así como otras fuentes de error no relacionadas directamente con la interacción entre derecho y ciencia. También se ha establecido una lista exhaustiva de las fuentes potenciales de error desde la llegada a la escena del crimen a la redacción del informe. En el marco de los tests empíricos, al analizar los sesgos de observación dedicamos especial interés al proceso de ACE-V (análisis, comparación, evaluación y verificación) para la individualización de huellas dactilares puesto que este reposa sobre la observación visual y ha originado varios casos recientes de identificaciones erróneas. Los resultados de las experimentaciones realizadas con estudiantes sugieren que las etapas en las que deben tornarse decisiones son las más vulnerables a lös factores que pueden generar sesgos de observación. En el contexto de las entrevistas semi-estructuradas, once científicos forenses de diversos países contestaron preguntas sobre varios temas, incluyendo las fuentes potenciales y existehtes de error en su trabajo, las limitaciones propias a las ciencias forenses, las posibilidades de reducir al mínimo los errores y las herramientas que podrían ser utilizadas para ello. Se han sugerido diversas soluciones para alcanzar este objetivo, incluyendo el entrenamiento y la educación para aumentar la calidad de las ciencias forenses. Además, se ha establecido el periodo de conservación de las muestras judiciales. Los resultados apuntan a un elevado grado de consenso entre los entrevistados en la mayoría de los temas. Sin embargo, sus opiniones sobre las posibles causas de estos errores y su importancia relativa en las tres etapas de la investigación -la escena del crimen, el laboratorio y la redacción de informe- discrepan con las que predominan ampliamente en la literatura actual. De este modo, esta investigación nos ha permitido obtener una mejor imagen de la interacción entre ciencias forenses y errores judiciales, y comenzar a formular una serie de recomendaciones prácticas para reducirlos al minimo.