233 resultados para Volatilité intégré
Resumo:
RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.
Resumo:
Le football féminin est perçu comme un des principaux leviers de développement pour les fédérations sportives nationales et pour l'UEFA que ce soit en termes d'atteinte de nouveaux publics, de marketing et aujourd'hui de valeurs (synonyme d'un football plus « responsable »). Cette proximité entraîne des synergies que nous avons étudiées à partir d'un cadre d'analyse construit de manière ad hoc. Ce cadre s'appuie sur une approche par les stratégies d'acteurs en fonction du contexte national et local et de six domaines du fonctionnement interne des deux sections, masculine et féminine. La collecte des données s'est effectuée dans 14 grands clubs européens mixtes de neuf pays européens disposant de cultures très différentes en matière de football féminin. L'analyse des données permet d'observer trois types de modèles : totalement intégré, globalement intégré et partiellement intégré. Les résultats sont discutés aux regards des théories des ressources et des compétences stratégiques de la responsabilité sociale des organisations. Il est alors possible de poser des hypothèses de logiques de fonctionnement de ces clubs mixtes allant d'un continuum entre recherche de légitimation et exploitation d'un nouveau modèle stratégique et économique.
Resumo:
Relevant globalement de l'analyse de discours, cette thèse se propose en deux temps (questions de méthode, puis analyses) d'étudier dans le détail et d'interpréter des lettres asilaires initialement gardées au sein d'archives médicales de différents hôpitaux psychiatriques de Suisse romande et désormais conservées à la Collection de l'Art Brut, à Lausanne. Ce transfert institutionnel noue le problème central posé par le corpus recueilli : quelle lecture accorder à ces productions qui, dans ces conditions, semblent échapper à toute catégorisation générique a priori ou, en reformulant l'interrogation, en quoi est-ce que les oeuvres d'art brut dépassent-elles leur statut de documents cliniques? Pour répondre à cette ample question, il faut une théorie du langage qui conceptualise des modalités de réception. En l'occurrence, les textes retenus sont abordés à partir de la théorie de Yénonciation, élaborée au moins depuis Emile Benveniste, qui implique de saisir le langage non à partir de la perspective de l'interprété mais depuis celle de l'interprétant.¦Une fois ce fondement énonciatif posé, de nombreux problèmes peuvent être posés et permettent d'architecturer le travail. L'énonciation installe en premier lieu l'univers du discours, qui implique de tenir globalement compte du primat de l'interdiscursivité, autant dans le geste raisonné de constitution du corpus que dans la conduite de son interprétation. En l'occurrence, la thématique de la folie est ici centrale : les production retenues ont en effet d'abord fait l'objet du diagnostic psychiatrique et y ont eu valeur de symptômes ; elles ont ensuite intégré les rangs de la Collection de l'Art Brut, dont les principaux artisans (Jean Dubuffet et Michel Thévoz en tête) ont beaucoup insisté sur le renouvellement du regard à apporter sur la folie, celle-ci y étant considérée pour ses vertus créatrices et contestatrices.¦Le cadrage (doublement) dialogique du corpus implique à grands traits de lier la folie et le langage ou, plus spécifiquement, de faire de la folie non plus une pathologie mais un problème de (théorie du) langage. Pour conceptualiser ce passage, les notions de manie et de manière (Dessons) sont primordiales. La première est dotée d'une mémoire psychiatrique et fait de la folie une maladie mentale dont souffre un individu doté de son empirie et d'une psycho-biologie. La seconde, en revanche, est énonciative et concerne la subjectivation d'un langage, si spécifique qu'il implique de sortir des catégories linguistiques conventionnelles pour le désigner et le décrire, inaptes à le rationaliser. La manière rejoint donc la folie parce qu'elle rend, littéralement, fou (elle déstabilise nos grilles préformatées de lecture). En ce sens, elle implique, dans le discours, de passer d'une énonciation qui n'est pas une simple interlocution (où le langage permet à un sujet de communiquer à propos de quelque chose à un autre sujet) à une énonciation dont la réception fait problème.¦Pour saisir cette énonciation dans le discours, il importe de se débarrasser d'une rhétorique des genres pour passer, radicalement, à une poétique de Γénonciation. La rhétorique ne peut appréhender la spécificité des textes retenus ou, autrement dit, leur mode propre de signifier, pour plusieurs raisons : elle se centre sur les effets provoqués par le discours sur un « auditoire » en vue de certaines visées préalables, elle instrumentalise le langage à des fins uniquement communicatives, elle repose sur un réalisme linguistique (le rapport presque naturel entre le signifiant et le concept qu'il est censé transcrire de façon transparente), elle n'a pas de théorie du sujet (sinon un bien trop flou « locuteur »).¦Une poétique de l'énonciation offre « au contraire » (l'opposition est caricaturale ici) l'avantage de traiter dans le discours d'une énonciation qui n'est pas pensée à partir de modèles collectifs (genres, signe linguistique, ...). Dans ce dernier cas, l'appréhension du discours ne peut considérer que des variations (quand ce n'est pas des « déviances » ou des symptômes) internes à tel ou tel modèle générique, pas remis en cause comme tel. En somme, une poétique renverse la pensée du langage : elle ne l'appréhende plus à partir de catégories qui lui sont externes, mais s'intéresse à des « procédés » indésignables a priori, ou, plus globalement, à un mode spécifique de signifier, c'est-à-dire qu'il ne « fait sens » que pour un seul langage - et pas un autre.¦Le langage est alors si subjectivé qu'il confond son statut d'objet avec celui de sujet. Pour preuve, on ne le désigne plus dans le discours à partir d'une catégorie sociale générique (« c'est une lettre »), mais à partir d'un « nom d'auteur » ou, plus spécifiquement, une manière (« c'est un Aloïse », par exemple pour le cas d'une oeuvre apparentée à l'art brut), sujet théorique de l'énonciation artistique. Cette forme-sujet, comme la nommait Henri Meschonnic dans sa théorie dite du poème, se reconnaît dans l'unité (sémantique) du texte et ouvre dans le discours à un système-sujet d'organisation identifiable à l'échelle élargie d'une oeuvre. Elle permet d'inscrire pleinement la démarche dans le cadre englobant non seulement de l'analyse du discours mais aussi d'une anthropologie linguistique.¦En somme, l'objet au centre de nos préoccupations fait de ce passage (d'une rhétorique à une poétique) un problème épistémologique. Les oeuvres d'art brut impliquent de passer d'une discursivité à une autre, d'une folie psychiatrique à une folie artistique, déplaçant la folie dans le champ social. Le langage dessine bel et bien la société. Ce travail permet finalement de comprendre la contribution du langage à la construction des réalités sociales, dans l'élaboration du sens qui s'y fabrique. Son orientation herméneutique aboutit à identifier une nouvelle figure de l'altérité, inscrite au sein même de la pensée linguistique.
Resumo:
Les questions de mal-être au travail et de risques psychosociaux sont centrales dans le monde du travail actuel. L'ergonomie nous enseigne qu'une analyse des formes d'organisation du travail est nécessaire pour comprendre les origines des plaintes des travailleurs. Dans cette recherche, nous avons étudié une population spécifique, les employés du siège d'une organisation non gouvernementale humanitaire en Suisse (150 personnes environ). Partant du constat de l'expression de nombreuses plaintes de fatigue et de mal-être au travail par ces employés, nous avons cherché à objectiver ces plaintes et avons étudié les éléments d'organisation susceptibles d'y être liés.Dans le cadre d'une démarche inductive, nous avons utilisé conjointement des méthodes qualitatives (entretiens semi-directifs, observation non participante) et quantitatives (questionnaires) et avons appliqué le principe de triangulation méthodologique pour l'analyse des données.Trois thématiques relatives au mode de fonctionnement de l'organisation ont émergé des analyses : le fonctionnement dans l'urgence en permanence, la professionnalisation de l'organisation et le fort engagement des employés dans leur activité.L'organisation fonctionne selon une logique d'urgence en permanence. La nature de ses interventions, qui sont considérées de la plus haute importance, et la forte valorisation des activités « de terrain » conduisent à l'enfermement de l'activité dans la gestion des tâches urgentes, ce qui ne laisse pas de place à l'anticipation et à la planification. Ensuite, cette organisation a connu une forte croissance au cours des dernières décennies : d'une petite association, elle est devenue une véritable institution. La logique de fonctionnement institutionnelle n'est cependant pas venue remplacer totalement la logique associative, mais toutes deux cohabitent. L'organisation continue à demander à ses employés un engagement associatif et militant total mais applique parallèlement un management de type entrepreneurial, ce qui génère des messages paradoxaux pour les employés. Finalement, le fonctionnement de l'organisation dans son ensemble repose sur l'engagement de toute la chaîne des acteurs. Ceci est clairement intégré et repris par les employés du siège : ils relèvent que ce qu'ils font représente bien plus qu'un travail et qu'il est nécessaire de « tout donner », car les besoins sont immenses et la charge de travail énorme. Cependant, la limite entre engagement et surengagement conduisant à l'épuisement est très facilement franchie.Ces éléments participent à générer un environnement de travail potentiellement pathogène, où il est peu légitime pour l'employé de se préoccuper de sa propre santé, et où la charge de travail et le rythme ne lui laissent pas le temps de mettre en place des stratégies de préservation de sa santé. Ce mode de fonctionnement spécifique véhicule des messages paradoxaux et soumet les employés à des exigences contradictoires.
Resumo:
Ce rapport présente plusieurs axes relatifs aux jeux de hasard et d'argent et au jeu problématique. Comment comprendre l'évolution de ce type de problématique dans une société? C'est au travers d'une analyse sur les représentations sociales en Suisse romande que ce travail propose une piste de réflexion et ceci dans le but de dresser un état des lieux de ces thématiques telles qu'elles existent dans les consciences collectives. Les représentations sociales ont fait l'objet de nombreuses études en Amérique du Nord mais sont par contre plutôt rares en Suisse. Nous avons pu constater au fil de ce travail que les représentations sont teintées de prudence; la population générale sollicitée ne semble pas ignorer quels sont les écueils pouvant être générés par ces pratiques; mais, en revanche, d'autres résultats nous ont permis de comprendre que le jeu problématique n'est pas encore intégré par l'ensemble de la population puisque 42.6% n'en ont jamais entendu parler. Il y a donc une brèche à exploiter en la matière tant d'un point de vue préventif que scientifique. Afin d'apporter une réalité supplémentaire et concrète à ces considérations d'ordre subjectif, nous avons agrémenté ce rapport d'analyses propres à l'épidémiologie du jeu en Suisse, et ceci au travers des données relatives aux Enquêtes suisses sur la santé 2002 et 2007. Finalement, un certain nombre d'outils de mesure et de dépistage à l'égard du jeu pathologique ont été sélectionnés dans la littérature internationale, et ceci dans le but de mieux comprendre quels sont les critères privilégiés permettant de déterminer ou diagnostiquer un joueur à risque. Le présent rapport offre donc un éventail de ce que sont les jeux et de ce qu'ils représentent dans notre société et délivre des informations diverses sur leurs appréhensions tant au niveau individuel que médical et social.
Evaluation in vitro de la réactivité des particules fines et ultrafines : rapport scientifique final
Resumo:
Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.
Resumo:
RESUME L'étude de la médecine à la Faculté de l'Université de Lausanne est un cursus de six ans. Depuis la réforme générale du curriculum en octobre 1995, le programme de la deuxième année consacrée à l'étude de l'être humain sain a été transformé. L'enseignement intégré par système ou organe a été introduit en remplaçant l'enseignement par discipline. Parallèlement, un système d'évaluation de l'enseignement par les étudiants a été proposé. Il a été amélioré au fil des années et depuis l'année académique 1998-99, l'évaluation est devenue systémique et régulière. Notre étude présente et compare les résultats des évaluations de l'enseignement et des enseignants de neuf cours intégrés dispensés en deuxième année durant deux années académiques (1998-99 et 1999-2000). Une forte corrélation entre les résultats des deux années consécutives ainsi qu'une importante disparité des estimations à l'intérieure de chacune de deux années ont été observées. Ceci démontre un engagement sérieux des étudiants dans le processus d'évaluation, révèle la pertinence de leur analyse et leur bonne capacité de discernement. L'analyse de nos résultats montre que les évaluations effectuées par les étudiants peuvent constituer une source fiable d'informations et contribuer à l'amélioration du processus d'enseignement.
Resumo:
La désaffection des citoyens à l'égard des partis politiques en contexte autoritaire semble se prolonger au niveau de la recherche. Pourtant, l'observation du phénomène partisan dans de tels contextes soulève plusieurs énigmes. A partir du cas du Maroc, un des rares pays de la région qui connaît depuis son indépendance un pluralisme partisan limité mais néanmoins complexe, nous nous sommes posés trois questions en particulier : 1) Si les partis politiques suscitent tant de méfiance en contexte autoritaire, qu'est-ce qui caractérise ceux qui s'engagent en leur sein ? 2) Comment en vient-on à s'y engager ? 3) Selon quels processus individuels, organisationnels, collectifs les carrières militantes partisanes se transforment-elles dans un régime autoritaire ? Pour saisir, d'une part, les caractéristiques et les lignes de partage qui structurent l'espace partisan marocain en termes de valeurs, de sociographie, de socialisations, de bassins de recrutement, d'autre part, les intrications entre trajectoires individuelles, organisationnelles et collectives, nous avons recouru en parallèle à des méthodes ethnographiques et à la constitution d'une base de données sur 4127 congressistes nationaux de dix organisations politiques marocaines, sondées entre 2008 et 2012. La sélection des organisations politiques a reposé sur des critères historiques et idéologiques, sur des dynamiques de crise, de fragmentation ou d'unification, tout en étant contrainte par les aléas du calendrier de l'organisation des congrès nationaux et des événements de 2011. L'échantillon comporte des partis « administratifs », des partis de gouvernement, d'opposition parlementaire, d'opposition non parlementaire ; avec une diversité d'orientations : nationaliste, berbériste, islamiste, de gauche gouvernementale, de gauche radicale, d'extrême-gauche. En outre, pour interroger les spécificités du fait partisan au regard de ses marges, nous avons intégré dans notre échantillon une organisation altermondialiste promouvant « la politique autrement » et observé les mobilisations de 2011 et de 2012. La concrétisation de cette recherche a été possible grâce à plusieurs contributions : - Les congressistes et nos « alliés » au sein des organisations enquêtées - Université de Lausanne : subsides de démarrage, avant l'obtention du financement du FNRS - M-F. Oliva : gestion du fonds - M. Naoui : traduction vers l'arabe de la première version du questionnaire - l'équipe des enquêteurs constituée notamment par des doctorant.e.s du CM2S (Casablanca) et de l'Université de Mohammedia - H. Rabah: gestion logistique des enquêtes - M. Jeghllaly : participation à la collecte des données, co-responsabilité des enquêtes menées dans deux congrès, traduction et codage des réponses aux questions ouvertes et semi-ouvertes - V. Monney, G. Patthey : gestion administrative et constitution de la base de donnés au début du projet - Y. Boughaba, P. Diaz, F. Friedli, A. Lutz, M. Mouton, S. Ridet-de-Beausacq : saisie des données - N. Khattabi et K. Taifouri : saisie des réponses en arabe - P. Blanchard : stratégie méthodologique, formation méthodologique de l'équipe suisse, supervision de la saisie et du codage, conception et réalisation de la base de données et des documents de codage, traitements statistiques multivariés et séquentiels - J. P. Müller : formation méthodologique complémentaire de la requérante - A. Bennani, M. Catusse, J.G. Contamin, O. Fillieule, F. Haegel, F. Johshua, D. Ksikes, M. Offerlé, F. Passy : soutiens et conseils précieux à un moment ou à un autre de l'enquête.
Resumo:
L'objectif de cette recherche est d'explorer l'impact des abus sexuels tel que perçu par des personnes adultes ayant été victimes dans leur enfance. Une attention particulière est portée sur l'évolution de cette perception. A cette fin, deux groupes de personnes ont été sollicités : des patients suivis en thérapie de groupe dans un centre spécialisé et des personnes ayant terminé une thérapie centrée sur les abus sexuels depuis au moins cinq ans.Des entretiens semi-structurés ont été menés tous les six mois pendant deux ans avec six femmes en thérapie, ainsi qu'avec trois femmes et un homme ayant terminé leur travail thérapeutique à ce sujet.L'analyse qualitative, inspirée de l'IPA, a révélé huit thèmes. A la recherche de la normalité, Vie intime et sexualité, et Du secret à la reconnaissance sont trois des problématiques majeures présentées par les femmes aux premiers entretiens. L'analyse révèle l'évolution de ces thèmes au cours des deux ans et les « témoins de l'après-thérapie » donnent des pistes quant aux suites possibles. Les participants témoignent également de leurs diverses Démarches thérapeutiques. Question de survie est un thème faisant trait à la dissociation structurelle de la personnalité telle qu'elle apparaît dans le discours des participants et telle qu'ils la décrivent. De la réviviscence au souvenir, Attribution de sens et Vivre après amènent chacun des aspects spécifiques liés à la résilience et ultimement à l'épanouissement.Ces résultats font ressortir des thématiques qui se révèlent être particulièrement difficiles pour ces personnes ayant été abusées sexuellement dans leur enfance, tout en soulignant l'évolution possible au fil du temps et à l'aide des thérapies. Ils révèlent également les manières dont le traumatisme est peu à peu intégré par les participants dans leur histoire de vie.This study's aim is to explore how survivors perceive the impact on their adult life of child sexual abuse and how it changes over time. To this effect, two groups of people were solicited: patients involved in group therapy in a specialised treatment centre and people who had finished therapy focused on the trauma caused by the abuse at least five years prior to this study.Semi-structured interviews were conducted at 6-month intervals over two years with six women in therapy. Three women and one man who had finished therapy accepted to share their experience.Qualitative analysis inspired by IPA revealed eight themes. Searching for normality, Tuning feelings with sexual life, and From secrecy to acknowledgment are three of the main issues presented by the women at the initial interviews. The analysis reveals how these themes evolve over the two years, while the participants who have finished their therapy give insights of possible futures. Participants also reflected on their various Therapeutical experiences. A matter of survival relates to structural dissociation of the personality as it appears in the participants' discourse and as they describe it. Placing the memory in the past, Making meaning, and And life goes on each bring out specific aspects linked to resiliency and finally to thriving.These results highlight the issues that are particularly difficult in dealing with the aftermaths of child sexual abuse and underline their possible transformation with time and therapy. They also reveal the ways in which the trauma is gradually integrated by the participants into their life-history.
Resumo:
Summary Artificial radionuclides were released in the environment during the atmospheric nuclear weapon tests and after accidental events involving nuclear industries. As a primary receptor of the deposition, the soil is a very sensitive compartment and understanding the interaction and migration of radionuclides within soils allows the development of scenario for the contamination risk of the population and of the environment. Most available field studies on radionuclides in soils only concern one or two isotopes, mostly 137Cs, and few physico-chemical soil parameters. The purpose of this study was a broader understanding of the radioecology of an Alpine valley. In a first part, we aimed to describe the depth distribution of 137Cs, 90Sr, 239+240Pu, and 241Am within different alpine soils and to identify some stable elements as indicators for accumulating layers. In the central part of the study, the goal was to investigate the repartition of ^Sr and 239Pu between the truly dissolved fraction and the colloidal fraction of the soil solutions and to identify the nature of colloids involved in the adsorption of ^Sr and 239Pu. These results were integrated in an "advection- sorption" transport model seeking to explain the migration of 239Pu and 90Sr within the soils and to assess the importance of colloidal transport for these two isotopes. A further aspect studied was the role of the competition between the radioisotopes (137Cs and 90Sr) and their stable chemical analogues (K and Ca) with respect to plant uptake by different plant species. The results on the depth distribution within the soils showed that 137Cs was mostly retained in the topsoil, to the exception of an organic-rich soil (Histosol 2) receiving important surface runoff, where migration down to a depth of 30 cm was observed. 137Cs depth distribution within the soils was similar to unsupported 210Pb depth distribution. The plant uptake of 137Cs clearly depended on the concentration of exchangeable potassium in the soils. Moreover, we showed that the 137Cs uptake by certain species of the taxonomic orders Poales and Rosales was more sensitive to the increase in exchangeable Κ compared to other orders. Strontium-90 was much more mobile in the soils than 137Cs and depth migration and accumulation in specific AI- and Fe-rich layers were found down to 30 cm. Copper and Ni showed accumulations in these same layers, indicating their potential to be used as indicators for the migration of ^Sr within the soils. In addition, we observed a 90Sr activity peak in the topsoil that can be attributable to recycling of 90Sr by plant uptake. We demonstrated for the first time that a part of 90Sr (at least 40%) was associated with the colloids in organic-rich soil solutions. Therefore, we predict a significant effect of the colloidal migration of ^Sr in organic-rich soil solutions. The plant uptake results for 90Sr indicated a phylogenetic effect between Non-Eudicot and Eudicots: the order Poales concentrating much less 90Sr than Eudicots do. Moreover, we were able to demonstrate that the sensitivity of the 90Sr uptake by 5 different Alpine plant species to the amount of exchangeable Ca was species-independent. Plutonium and 241Am accumulated in the second layer of all soils and only a slight migration deeper than 20 cm was observed. Plutonium and 241Am showed a similar depth distribution in the soils. The model results suggested that the present day migration of 239Pu was very slow and that the uptake by plants was negligible. 239Pu activities between 0.01 to 0.08 mBq/L were measured in the bulk soil solutions. Migration of 239Pu with the soil solution is dominated by colloidal transport. We reported strong evidences that humic substances were responsible of the sorption of 239Pu to the colloidal fraction of the soil solutions. This was reflected by the strong correlation between 239Pu concentrations and the content of (colloidal) organic matter in the soil solution. Résumé Certains radioéléments artificiels ont été disséminés dans l'environnement suite aux essais atmosphériques de bombes nucléaires et suite à des accidents impliquant les industries nucléaires. En tant que récepteur primaire de la déposition, le sol est un compartiment sensible et des connaissances sur les interactions et la migration des radioéléments dans le sol permettent de développer des modèles pour estimer la contamination de la population et de l'environnement. Actuellement, la plupart des études de terrain sur ce sujet concernent uniquement un ou deux radioéléments, surtout le 137Cs et peu d'études intègrent les paramètres du sol pour expliquer la migration des radioéléments. Le but général de cette étude était une compréhension étendue de la radio-écologie d'une vallée alpine. Notre premier objectif était de décrire la distribution en profondeur de 137Cs, ^Sr, 239+240pu et 241Am dans différents sols alpins en relation avec des éléments stables du sol, dans le but d'identifier des éléments stables qui pourraient servir d'indicateurs pour des horizons accumulateurs. L'objectif de la deuxième partie, qui était la partie centrale de l'étude, était d'estimer le pourcentage d'activité sous forme colloïdale du 239Pu et du 90Sr dans les solutions des sols. De plus nous avons déterminé la nature des colloïdes impliqués dans la fixation du ^Sr et 239Pu. Nous avons ensuite intégré ces résultats dans un modèle de transport développé dans le but de décrire la migration du 239Pu et 90Sr dans le sol. Finalement, nous avons étudié l'absorption de 137Cs et 90Sr par les plantes en fonction de l'espèce et de la compétition avec leur élément analogue stable (K et Ca). Les résultats sur la migration en profondeur du 137Cs ont montré que ce radioélément était généralement retenu en surface, à l'exception d'un sol riche en matière organique dans lequel nous avons observé une nette migration en profondeur. Dans tous les sols, la distribution en profondeur du 137Cs était corrélée avec la distribution du 210Pb. L'absorption du 137Cs par les plantes, était dépendante de la concentration en Κ échangeable dans le sol, le potassium étant un compétiteur. De plus, nous avons observé que les espèces ne réagissaient pas de la même manière aux variations de la concentration de Κ échangeable. En effet, les espèces appartenant aux ordres des Poales et des Rosales étaient plus sensibles aux variations de potassium échangeable dans le sol. Dans tous les sols Le 90Sr était beaucoup plus mobile que le 137Cs. En effet, nous avons observé des accumulations de 90Sr dans des horizons riches en Fe et Al jusqu'à 30 cm de profondeur. De plus, le Cu et le Ni montraient des accumulations dans les mêmes horizons que le 90Sr, indiquant qu'il pourrait être possible d'utiliser ces deux éléments comme analogues pour la migration du 90Sr. D'après le modèle développé, le pic de 90Sr dans les premiers centimètres du sol peut être attribué à du recyclage par les plantes. Le 90Sr en solution était principalement sous forme dissoute dans des solutions de sols peu organique (entre 60 et 100% de 90Sr dissous). Par contre, dans des solutions organiques, un important pourcentage de 90Sr (plus de 40%) était associé aux colloïdes. La migration colloïdale du 90Sr peut donc être significative dans des solutions organiques. Comme pour le 137Cs, l'absorption du 90Sr par les plantes dépendait de la concentration de son analogue chimique dans la fraction échangeable du sol. Par contre, les espèces de plantes étudiées avaient la même sensibilité aux variations de la concentration du calcium échangeable. Le plutonium et l'américium étaient accumulés dans le deuxième horizon du sol et nous avons observé seulement une faible migration plus profondément que 20 cm. Selon le modèle, la migration actuelle du plutonium est très lente et l'absorption par les plantes semble négligeable. Nous avons mesuré entre 0.01 et 0.08 mBq/L de 239Pu dans les solutions de sol brutes. La migration du plutonium par la solution du sol est due principalement aux colloïdes, probablement de nature humique. Résumé grand public Dans les années 1950 à 1960, l'environnement a été contaminé par des éléments radioactifs (radioéléments) artificiels provenant des essais des armes atomiques et de l'industrie nucléaire. En effet, durant ces années, les premiers essais de bombes atomiques se faisaient dans l'atmosphère, libérant de grandes quantités d'éléments radioactifs. De plus certains accidents impliquant l'industrie nucléaire civile ont contribué à la dissémination d'éléments radioactifs dans l'environnement. Ce fut par exemple le cas de l'accident de la centrale atomique de Tchernobyl en 1986 qui a causé une importante contamination d'une grande partie de l'Europe par le 137Cs. Lorsqu'ils sont libérés dans l'atmosphère, les radioéléments sont dispersés et transportés par les courants atmosphériques, puis peuvent être déposés dans l'environnement, principalement par les précipitations. Une fois déposés sur le sol, les radioéléments vont interagir avec les composants du sol et migrer plus ou moins vite. La connaissance des interactions des éléments radioactifs avec le sol est donc importante pour prédire les risques de contamination de l'environnement et de l'homme. Le but général de ce travail était d'évaluer la migration de différents éléments radioactifs (césium-137, strontium-90, plutonium et américium-241) à travers le sol. Nous avons choisi un site d'étude en milieu alpin (Val Piora, Tessin, Suisse), contaminé en radioéléments principalement par les retombées de l'accident de Tchernobyl et des essais atmosphériques de bombes atomiques. Dans un premier temps, nous avons caractérisé la distribution en profondeur des éléments radioactifs dans le sol et l'avons comparée à divers éléments stables. Cette comparaison nous a permit de remarquer que le cuivre et le nickel s'accumulaient dans les mêmes horizons du sol que le strontium-90 et pourraient donc être utilisés comme analogue pour la migration du strontium-90 dans les sols. Dans la plupart des sols étudiés, la migration du césium-137, du plutonium et de l'américium-241 était lente et ces radioéléments étaient donc accumulés dans les premiers centimètres du sol. Par contre, le strontium-90 a migré beaucoup plus rapidement que les autres radioéléments si bien qu'on observe des accumulations de strontium-90 à plus de 30 cm de profondeur. Les radioéléments migrent dans la solution du sol soit sous forme dissoute, soit sous forme colloïdale, c'est-à-dire associés à des particules de diamètre < Ιμηι. Cette association avec des colloïdes permet à des radioéléments peu solubles, comme le plutonium, de migrer plus rapidement qu'attendu. Nous avons voulu savoir quelle était la part de strontium-90 et plutonium associés à des colloïdes dans la solution du sol. Les résultats ont montré que le plutonium en solution était principalement associé à des colloïdes de type organique. Quant au strontium-90, ce dernier était en partie associé à des colloïdes dans des solutions de sol riches en matière organique, par contre, il était principalement sous forme dissoute dans les solutions de sol peu organiques. L'absorption de radioéléments par les plantes représente une voie importante pour le transfert vers la chaîne alimentaire, par conséquent pour la contamination de l'homme. Nous avons donc étudié le transfert du césium-137 et du strontium-90 de plusieurs sols vers différentes espèces de plantes. Les résultats ont montré que l'absorption des radioéléments par les plantes était liée à la concentration de leur analogue chimique (calcium pour le strontium-90 et potassium pour le césium- 137) dans la fraction échangeable du sol. De plus certaines espèces de plantes accumulent significativement moins de strontium-90.
Resumo:
La pierre et l'image. Etude monographique de l'église de Saint-Chef en Dauphiné: L'ancienne abbatiale de Saint-Chef-en-Dauphiné est située dans l'Isère, à 10 km de Bourgoin-Jallieu et à 2 km de l'ancienne voie romaine qui joignait Vienne à Aoste par le col du Petit-Saint-Bernard. L'abbaye dépendait, dès sa fondation, des archevêques de Vienne, dont la cité se trouvait à 70 km plus à l'ouest. Selon le récit de l'archevêque Adon de Vienne, écrit à la fin du IXe siècle, l'abbaye de Saint-Chef aurait été fondée au cours du VIe siècle par saint Theudère sur un territoire appartenant à sa famille, le Val Rupien. D'abord dédié à la Vierge le monastère est placé, dès l'époque carolingienne, sous le double patronage de la Vierge et du saint fondateur, dont les reliques furent déposées dans l'église. Sans doute détruite et abandonnée lors des guerres bosonides qui provoquèrent la ruine de Vienne (882), l'abbaye est restaurée quelques années plus tard par des moines venus de Champagne : en 887 les moines de Montier-en-Der, fuyant leur abbaye menacée par les invasions normandes, trouvent refuge à Saint-Chef. Afin de promouvoir la reconstruction de l'abbaye, l'archevêque Barnoin, soutenu par Louis l'Aveugle, roi de Bourgogne, lui offrent des privilèges d'exemption et plusieurs donations. Signe de la renommée et de la prospérité dont bénéficiait alors le monastère, Hugues, héritier de Louis l'Aveugle, y reçoit son éducation. Vers 925 ou 926, alors que la Champagne est à. nouveau pacifiée, les moines de Montier-en-Der regagnent leur abbaye d'origine après avoir reconstruit, selon les sources, le « petit monastère de Saint-Chef ». L'abbaye dauphinoise n'est pas pour autant abandonnée et reste vraisemblablement en contact avec les moines champenois : en 928, Hugues de Provence fait des donations importantes d l'abbaye qui est alors formellement placée sous la juridiction de l'Eglise de Vienne. En 962, le Viennois est intégré au royaume de Bourgogne puis, en 1032, au domaine impérial. Construction de l'abbaye : Après le départ des moines de Montier-en-Der, l'église dauphinoise a vraisemblablement été reconstruite par saint Thibaud, archevêque de Vienne entre 970 et l'an mil. Ayant peut-être reçu son éducation dans l'abbaye dauphinoise, il est enterré dans l'église qui, selon certaines sources, associe dès lors son patronage à celui du saint fondateur. Elevée en petit appareil irrégulier, la nef actuelle de l'église de Saint-Chef pourrait appartenir à cette phase de construction de l'église. Fils du comte Hugues de Vienne qui possédait d'importants territoires autour de Saint-Chef, Thibaud était aussi lié aux comtes de Troyes et de Champagne : ce sont ces liens qui expliquent la présence répétée de l'archevêque en Champagne et dans la région de Montier-en-Der. Or, à la même époque, l'église champenoise est reconstruite par le célèbre Adson, abbé de 968 à 992. Des ressemblances entre cette construction et celle de Saint-Chef suggèrent la réalisation, au Xe siècle, de deux églises-soeurs. L'église préromane de Montier-en-Der possédait, à. l'ouest, un massif à double étage et l'est, des tours jumelles s'élevant au-dessus des deux chapelles latérales entourant l'abside. Ce plan présente plusieurs points de comparaison avec l'église actuelle de Saint-Chef : on constate en particulier une équivalence au niveau des dimensions (largeur-longueur des nefs et le diamètre de l'abside), un choix identique pour l'emplacement du choeur et des entrées secondaires : à l'extrémité ouest du bas-côté nord et à l'extrémité orientale du bas-côté sud. Ces analogies nous aident à. restituer le plan de Saint-Chef, tel qu'il pouvait apparaître du temps de Thibaud : la partie orientale de l'église, alors élevée en petit appareil irrégulier comme la nef actuelle, était sans doute dépourvue de transept ; à l'image de l'église champenoise, des tours jumelles pouvaient toutefois s'élever au-dessus des deux chapelles orientales. Si notre hypothèse est exacte, le parti architectural adopté à Saint-Chef comme à Montier¬en-Der correspond au plan des églises monastiques réformées au Xe siècle par les abbayes de Fleury et de Gorze (dès 934). Dans ce type d'églises que l'on rencontre essentiellement dans l'ancienne Lotharingie, mais aussi dans une région proche de Saint-Chef, en Savoie, les tours orientales possédaient, à l'étage, des tribunes qui donnaient sur le choeur. La forme caractéristique de ces églises est déterminée par l'observance de coutumes liturgiques communes aux abbayes réformées. Ainsi, la règle établie par la réforme indiquait la nécessité d'espaces surélevés situés à l'est et à l'ouest de l'église : ces espaces avaient pour fonction d'accueillir les choeurs des moines dont les chants alternaient avec ceux des moines réunis au niveau inférieur, devant le sanctuaire. Par la suite, sans doute en raison de nouvelles pratiques liturgiques, la partie orientale de l'église de Saint-Chef, reconstruite en moyen appareil régulier, est augmentée d'un transept à quatre chapelles latérales. Les deux tours, si elles existaient, sont détruites pour être reconstruites aux extrémités du transept, abritant des chapelles hautes qui donnaient sur les bras du transept et le choeur. La vision latérale entre les deux tribunes est alors favorisée par l'alignement des baies des tribunes et des arcades du transept. Grâce à ce système d'ouverture, les choeurs des moines se voyaient et s'entendaient parfaitement. Ce système de tribunes orientales apparaît dans certaines églises normandes du XIe siècle ou dans d'autres églises contemporaines qui semblent s'en inspirer, telles que la cathédrale du Puy ou l'abbatiale de Saint-Sever-sur-l'Adour. L'importance croissante des chants alternés dans les offices semble avoir favorisé l'émergence d'une telle architecture. L'étude du décor sculpté, et notamment des chapiteaux ornant les différentes parties de l'édifice, permet de dater les étapes de transformation de l'abbatiale. L'aménagement des chapelles orientales semble remonter à la première moitié du XIe siècle ; l'installation des piliers soutenant le transept et les deux tours de l'édifice est datable des années 1060-1080. Par la suite, sans doute du temps de Guillaume de la Tour-du-Pin, archevêque de Vienne entre 1165 et 1170, le transept et la croisée sont surélevés et voûtés et des fenêtres viennent ajourer le mur pignon oriental. Les indices de datation tardives, rassemblés au niveau supérieur du transept, ont été utilisés par les spécialistes de l'architecture, tels Raymond Oursel et Guy Barruol, pour dater l'ensemble de l'église du XIIe siècle. Pourtant, dans d'autres études, Otto Demus, Paul Deschamp et Marcel Thiboud dataient les peintures de Saint-Chef de la seconde moitié du XIe siècle, soit un demi-siècle au moins avant la datation proposée pour l'élévation architecturale. Cette contradiction apparente se trouve désormais résolue par la mise en évidence de phases distinctes de construction et de transformations de l'édifice. Les peintures : Le décor peint de l'abbatiale est conservé dans trois chapelles du transept : dans la chapelle Saint-Theudère, à l'extrémité sud du transept, dans la chapelle Saint-Clément, à son autre extrémité, et dans la chapelle haute s'élevant au-dessus de celle-ci. Selon une dédicace peinte derrière l'autel, cette chapelle est dédiée au Christ, aux archanges et à saint Georges martyr. L'analyse stylistique permet de dater les peintures du troisième ou du dernier quart du XIe siècle : leur réalisation semble donc succéder immédiatement à l'élévation du transept et des deux tours que l'on situe, on l'a vu, dans les années 1060-1080. Au cours de cette étude, on a aussi relevé la parenté des peintures avec des oeuvres normandes et espagnoles : ces ressemblances s'affirment par certaines caractéristiques de style, mais aussi par le traitement de l'espace. Par exemple, l'alignement des anges sur la voûte, ou des élus sur le mur ouest de la chapelle haute de Saint-Chef, rappellent certains Beatus du XIe siècle, tels que celui de Saint-Sever antérieur à 1072. Dans la chapelle haute, la hiérarchie céleste est distribuée par catégories autour du Christ, représenté au centre de la voûte ; cette disposition se retrouve à Saint-Michel d'Aiguilhe au Xe siècle, ainsi que dans le premier quart du XIIe siècle à Maderuelo en Catalogne et à Fenouilla en Roussillon. D'autres rapprochements avec des oeuvres ottoniennes et carolingiennes ont aussi été observés, ainsi qu'avec certaines enluminures d'Ingelard, moine à Saint-Germain des Prés entre 1030 et 1060. L'iconographie: Le sens de l'image avait donné lieu à quelques études ponctuelles. Cette thèse a permis, d'une part, la mise en évidence d'un unique programme iconographique auquel participent les peintures des trois chapelles de l'abbatiale et, d'autre part, la découverte des liens entre le choix iconographique de Saint-Chef et certaines sources littéraires. Ces rapports ont par exemple été relevés pour la figure de l'ange conduisant saint Jean à la Jérusalem céleste, sur le voûtain ouest de la chapelle haute. La figure très soignée de l'ange, portant les mêmes vêtements que le Christ peint au centre de la voûte, présente sur son auréole quelques traces sombres qui devaient à l'origine dessiner une croix : ce détail fait de l'ange une figure du Christ, figure qui apparaît dans certaines exégèses apocalyptiques telles que le Commentaire d'Ambroise Autpert au Ville siècle, celui d'Haymon d'Auxerre au IXe siècle ou, au début du XIIe siècle, de Rupert de Deutz. Pour Ambroise Autpert, l'ange guidant saint Jean est une image du Christ amenant l'Eglise terrestre à la Jérusalem céleste, à laquelle elle sera unie à la fin des temps. Les deux figures symboliquement unies par le geste du Christ empoignant la main de saint Jean est une image du corps mystique de Jésus, le corps étant l'Eglise et la tête, le Christ qui enseigne aux fidèles. L'iconographie des peintures de la chapelle haute est centrée autour de l'oeuvre de Rédemption et des moyens pour gagner le salut, la Jérusalem céleste étant le lieu de destination pour les élus. Au centre de la voûte, le Christ présente ses deux bras écartés, en signe d'accueil. Sur le livre ouvert qu'il tient entre les genoux, les mots pax vobis - ego sum renvoient aux paroles prononcées lors de son apparition aux disciples, après sa Résurrection et au terme de son oeuvre de Rédemption. A ses pieds, sur le voûtain oriental, la Vierge en orante, première médiatrice auprès de son Fils, intercède en faveur des humains. Grâce au sacrifice du Christ et à travers la médiation de la Vierge, les hommes peuvent accéder à la Jérusalem céleste : les élus sont ici représentés sur le dernier registre du mur ouest, directement sous la Jérusalem ; un cadre plus sombre y indique symboliquement l'accès à la cité céleste. A l'autre extrémité du voûtain, Adam et Eve sont figurés deux fois autour de l'arbre de la connaissance : chassés du paradis, ils s'éloignent de la cité ; mais une fois accomplie l'oeuvre de Rédemption, ils peuvent à nouveau s'acheminer vers elle. Les peintures de la chapelle inférieure participent elles aussi au projet iconographique de la Rédemption. Sur la voûte de la chapelle, les quatre fleuves paradisiaques entouraient à l'origine une colombe. Selon l'exégèse médiévale, ces fleuves représentent les quatre temps de l'histoire, les vertus ou les quatre évangiles, diffusés aux quatre coins de la terre. Selon une tradition littéraire et iconographique d'origine paléochrétienne, ce sont aussi les eaux paradisiaques qui viennent alimenter les fonts baptismaux : l'association de la colombe, figure du Saint-Esprit et des fleuves du paradis suggère la présence, au centre de la chapelle, des fonts baptismaux. L'image de la colombe se trouve, on l'a vu, dans le prolongement vertical du Christ ressuscité, représenté au centre de la voûte supérieure. Or, selon une tradition qui remonte à Philon et Ambroise de Milan, la source des quatre fleuves, de la Parole divine diffusée par les quatre Evangiles, c'est le Christ. Dans son traité sur le Saint-Esprit, l'évêque de Milan place à la source de l'Esprit saint l'enseignement du Verbe fait homme. Il ajoute que lorsqu'il s'était fait homme, le Saint-Esprit planait au-dessus de lui ; mais depuis la transfiguration de son humanité et sa Résurrection, le Fils de Dieu se tient au-dessus des hommes, à la source du Saint-Esprit : c'est la même logique verticale qui est traduite dans les peintures de Saint-Chef, le Christ ressuscité étant situé au-dessus du Saint-Esprit et des eaux paradisiaques, dans la chapelle haute. Si les grâces divines se diffusent de la source christique aux hommes selon un mouvement descendant, l'image suggère aussi la remontée vers Dieu : en plongeant dans les eaux du baptême, le fidèle initie un parcours qui le ramènera à la source, auprès du Christ. Or, cet ascension ne peut se faire qu'à travers la médiation de l'Eglise : dans la chapelle Saint-Clément, autour de la fenêtre nord, saint Pierre et Paul, princes de l'Eglise, reçoivent la Loi du Christ. Dans la chapelle supérieure, ici aussi autour de la fenêtre septentrionale, deux personnifications déversaient les eaux, sans doute contenues dans un vase, au-dessus d'un prêtre et d'un évêque peints dans les embrasures de la fenêtre : c'est ce dont témoigne une aquarelle du XIXe siècle. Ainsi baignés par l'eau vive de la doctrine, des vertus et des grâces issue de la source divine, les représentants de l'Eglise peuvent eux aussi devenir sources d'enseignement pour les hommes. Ils apparaissent, en tant que transmetteurs de la Parole divine, comme les médiateurs indispensables entre les fidèles et le Christ. C'est par les sacrements et par leur enseignement que les âmes peuvent remonter vers la source divine et jouir de la béatitude. Si l'espace nord est connoté de manière très positive puisqu'il est le lieu de la représentation théophanique et de la Rédemption, les peintures de la chapelle sud renvoient à un sens plus négatif. Sur l'intrados d'arc, des monstres marins sont répartis autour d'un masque barbu aux yeux écarquillés, dont les dents serrées laissent échapper des serpents : ce motif d'origine antique pourrait représenter la source des eaux infernales, dont le « verrou » sera rompu lors du Jugement dernier, à la fin des temps. La peinture située dans la conque absidale est d'ailleurs une allusion au Jugement. On y voit le Christ entouré de deux personnifications en attitude d'intercession, dont Misericordia : elle est, avec Pax, Justifia et Veritas, une des quatre vertus présentes lors du Jugement dernier. Sur le fond de l'absidiole apparaissent des couronnes : elles seront distribuées aux justes en signe de récompense et de vie éternelle. L'allusion au Jugement et à l'enfer est la vision qui s'offre au moine lorsqu'il gagnait l'église en franchissant la porte sud du transept. S'avançant vers le choeur où il rejoignait les stalles, le moine pouvait presque aussitôt, grâce au système ingénieux d'ouvertures que nous avons mentionné plus haut, contempler les peintures situées sur le plafond de la chapelle haute, soit le Christ en attitude d'accueil, les anges et peut-être la Jérusalem céleste ; de là jaillissaient les chants des moines. De façon symbolique, ils se rapprochaient ainsi de leurs modèles, les anges. Dans ce parcours symbolique qui le conduisait de la mer maléfique, représentée dans la chapelle Saint¬Theudère, à Dieu et aux anges, les moines pouvaient compter sur les prières des intercesseurs, de la Vierge, des anges et des saints, tous représentés dans la chapelle haute. A Saint-Chef, l'espace nord peut-être assimilé, pour plusieurs aspects, aux Westwerke carolingiens ou aux galilées clunisiennes. Les massifs occidentaux étaient en effet le lieu de commémoration de l'histoire du salut : sites Westwerke étaient surtout le lieu de la liturgie pascale et abritaient les fonts baptismaux, les galilées clunisiennes étaient réservées à la liturgie des morts, les moines cherchant, par leurs prières, à gagner le salut des défunts. A l'entrée des galilées comme à Saint-Chef, l'image du Christ annonçait le face à face auquel les élus auront droit, à la fin des temps. Elevée au Xe siècle et vraisemblablement transformée dans les années 1060-1080, l'église de Saint-Chef reflète, par son évolution architecturale, celle des pratiques liturgiques ; son programme iconographique, qui unit trois espaces distincts de l'église, traduit d'une manière parfois originale les préoccupations et les aspirations d'une communauté monastique du XIe siècle. On soulignera toutefois que notre compréhension des peintures est limitée par la perte du décor qui, sans doute, ornait l'abside et d'autres parties de l'église ; la disparition de la crypte du choeur nuit aussi à l'appréhension de l'organisation liturgique sur cette partie de l'édifice. Seules des fouilles archéologiques ou la découverte de nouvelles peintures pourront peut-être, à l'avenir, enrichir l'état de nos connaissances.
Resumo:
L'approche psychothérapeutique groupale des patients hospitalisés à l'HJ du CCPPAA du SUPAA à Lausanne occupe une place importante dans le dispositif des soins des patients admis, tant dans le Programme Crise que dans les autres programmes, celui de Thérapie psychiatrique intégrée intensive (TPII) que celui à plus long terme des patients du programme de Thérapie psychiatrique intégré subaigüe (TPIS). Parmi les nombreux groupes proposés aux patients, le groupe de parole fait partie des groupes ayant gardé un dispositif spatio-temporel constant pendant plusieurs années. Dans le cadre d'une restructuration des groupes, les deux groupes de paroles ont été arrêtés, afin de permettre une nouvelle réflexion et une nouvelle temporalité des groupes, plus brève et mieux articulée avec le fonctionnement actuel de 1'HJ. Nous allons décrire cette phase très émotionnelle pour les patients, de «fin du groupe», qui a renvoyé, toute l'équipe à la réflexion sur d'autres « fins », mobilisant d'autres mouvements émotionnels liés à la « transitionnalité institutionnelle ».
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.