644 resultados para Interprétation réformiste
Resumo:
Objectifs pédagogiques :Savoir comment s'effectue un angio-scanner post-mortem multi-phases.Connaître les compétences du manipulateur forensique.Identifier les nouvelles technologies développées pour cette nouvelle méthode.Connaître les avantages et les limitations de cette technique.Apprendre les difficultés d'interprétation radiologiques des images obtenues.Messages à retenir :L'angio-scanner post-mortem permet de visualiser des pathologies qui ne sont pas visibles lors de l'autopsie , telles que la source exacte d'une hémorragie.L'angio-scanner post-mortem est indiqué pour les cas de mort subite d'origine cardiaque, des décès d'origine traumatique et des décès suites aux interventions médicales.Une nouvelle machine à injection dédiée à cette technique a été développée, qui permet aussi de sauvegarder toutes les données de la perfusion, telles que les différentes courbes de pression et les informations des corps examinés.Grâce à la formation spécifique de manipulateurs forensiques, qui sont capables d'effectuer l'examen de manière autonome, la technique peut être utilisée de façon routinière en médecine légale. L'interprétation radiologique nécessite la connaissance des artéfacts post-mortem pour éviter des interprétations erronées.Résumé :L'angio-scanner combiné à l'autopsie conventionnelle permet d'augmenter la qualité de l'examen post-mortem. L'examen est dirigé par le manipulateurforensique qui gère la machine à perfusion, la préparation du corps et la technique multi-phase. En cours de cette année, une machine à perfusion spécialisée a été développée. L'avantage de cette technique est notamment sa sensibilité supérieure à celle de l'autopsie pour la détection des lésions vasculaires . Les limitations s'expliquent par des artéfacts qui rendent difficile voire impossible l'interprétation de certaines pathologies telles que l'occlusion d'un vaisseau par un thrombus qui est imité par un caillot de sang post-mortem.
Resumo:
De tout temps, hommes et femmes ont cherché par tous les moyens à développer, préserver ou recouvrer leurs propres capacités sexuelles mais également à stimuler le désir du partenaire. L?utilisation d?aphrodisiaques naturels a été l?un des recours les plus répandus. De nos jours, la commercialisation de nouvelles "love drugs" de synthèse, e.g. Viagra®, Cialis®, Levitra®, a remis au goût du jour les aphrodisiaques classiques et à relancer la recherche sur des molécules nouvelles. La pratique croissante de l?automédication, le matraquage publicitaire sur les aphrodisiaques naturels, la prolifération sur le marché de compléments alimentaires non contrôlés et l?absence de véritable législation accroissent les risques qui pèsent sur la santé publique. Dans le but d?évaluer les risques potentiels sur le consommateur de produits aphrodisiaques commercialisés, le développement et la validation d?une méthode rapide d?analyse qualitative et quantitative de la yohimbine dans ces préparations du marché sont exposés dans la première partie de ce travail. La yohimbine est un antagoniste ?2-adrénocepteur du système nerveux central et périphérique, elle est employée depuis plus d?un siècle dans le traitement des dysfonctionnements érectiles. Cette méthode analytique utilise la chromatographie liquide couplée à l?ultraviolet et à la spectrométrie de masse (LC-UV-MS) et au total, vingt préparations aphrodisiaques ont été étudiées. La dose journalière de yohimbine mesurée s?est révélée très variable selon les produits puisqu?elle varie de 1.32 à 23.16 mg. La seconde partie de ce travail concerne l?étude phytochimique et pharmacologique d?Erythroxylum vacciniifolium Mart. (Erythroxylaceae), une plante, appelée localement catuaba, utilisée dans la médecine traditionnelle brésilienne comme tonique et aphrodisiaque. Dans un premier temps, l?extrait alcaloïdique a été analysé par chromatographie liquide haute performance (HPLC) couplée soit à un détecteur UV à barrette d?iode (LC-UV-DAD), soit à un spectromètre de masse (LC-MS), ou soit à un spectromètre de résonance magnétique nucléaire (LC-RMN). L?interprétation de ces données spectrales enregistrées en ligne a permis d?obtenir des informations structurales et d?identifier partiellement près de 24 alcaloïdes appartenant à la classe des tropanes et potentiellement originaux. Par des méthodes classiques de chromatographie liquide sur l?extrait alcaloïdique de la plante, dix sept tropanes nouveaux ont ensuite été isolés dont les catuabines et leurs dérivés, et les vaccinines. Tous ces composés sont des tropane-diols ou triols estérifiés par au moins un groupe acide 1-méthyl-1H-pyrrole-2-carboxylique. Un de ces composés a été identifié comme un tropane N-oxyde. Toutes les structures ont été déterminées par spectrométrie de masse haute résolution et spectroscopie RMN multi-dimensionnelle. Parmi les nombreux tests biologiques réalisés sur ces tropanes, seuls les tests de cytotoxicité se sont révélés faiblement positifs pour certains de ces composés.<br/><br/>Throughout the ages, men and women have incessantly pursued every means to increase, preserve or recapture their sexual capacity, or to stimulate the sexual desire of selected individuals. One of the most recurrent methods has been the use of natural aphrodisiacs. Nowadays, the commercialization of new synthetic "love drugs", e.g. Viagra®, Cialis® and Levitra®, has fascinated the public interest and has led to a reassessment of classical aphrodisiacs and to the search for new ones. The practice of self-medication by an increasing number of patients, the incessant aggressive advertising of these herbal aphrodisiacs, the invasion of the medicinal market with uncontrolled dietary supplements and the absence of real directives amplifies the potential health hazards to the community. In order to evaluate the possible risks of commercialized aphrodisiac products on consumer health, the development and validation of a rapid qualitative and quantitative method for the analysis of yohimbine in these products, is reported in the first part of the present work. Yohimbine, a pharmacologically well-characterized ?2-adrenoceptor antagonist with activity in the central and peripheral nervous system, has been used for over a century in the treatment of erectile dysfunction. The analytical method is based on liquid chromatography coupled with ultraviolet and mass spectrometry (LC-UV-MS) and in total, 20 commercially-available aphrodisiac preparations were analyzed. The amount of yohimbine measured and expressed as the maximal dose per day suggested on product labels ranged from 1.32 to 23.16 mg. The second part of this work involved the phytochemical and pharmacological investigation of Erythroxylum vacciniifolium Mart. (Erythroxylaceae), a plant used in Brazilian traditional medicine as an aphrodisiac and tonic, and locally known as catuaba. With the aim of obtaining preliminary structure information on-line, the alkaloid extract was analyzed by high performance liquid chromatography (HPLC) coupled to diode array UV detection (LC-UVDAD), to mass spectrometry (LC-MS) and to nuclear magnetic resonance spectroscopy (LCNMR). Interpretation of on-line spectroscopic data led to structure elucidation and partial identification of 24 potentially original alkaloids bearing the same tropane skeleton. Seventeen new tropane alkaloids were then isolated from the alkaloid extract of the plant, including catuabines D to I, their derivatives and vaccinines A and B. All compounds were elucidated as tropane-diol or -triol alkaloids esterified by at least one 1-methyl-1H-pyrrole-2-carboxylic acid. One of the isolated compounds was identified as a tropane alkaloid N-oxide. Their structures were determined by high resolution mass spectrometry and multi-dimensional NMR spectroscopy. Among the numerous bioassays undertaken, only the cytotoxicity tests exhibited a weak positive activity of certain compounds.
Resumo:
Ce travail de thèse décrit dans un premier volet le contexte historique et géopolitique de l'héroïne et de la cocaïne, ainsi que la composition chimique des produits et les étapes de leur fabrication. Le second volet est consacré à la description du concept du profilage et aux méthodes d'analyses chimiques et de comparaison de profils. Le troisième volet présente l'utilisation d'outils permettant une gestion et une visualisation des liens chimiques mis en évidence. L'ensemble de la démarche s'inscrit dans le but visant à cerner mieux les rouages de l'organisation du trafic de stupéfiants et de proposer une architecture cohérente et efficace de la gestion des analyses des produits stupéfiants. Le résultat permet de fournir une information opérationnelle utile aux forces de police actives dans la lutte contre le trafic de stupéfiant. Enfin une réflexion est menée sur l'interprétation des résultats et la valeur probante de ceux-ci, notamment lorsqu'une expertise est rédigée à l'attention d'un magistrat ou d'un tribunal.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Collection : Collection Legs
Resumo:
Au coeur même du premier paquet de sept accords bilatéraux conclu entre la Suisse et la Communauté européenne le 21 juin 1999, l'Accord sur la libre circulation des personnes (ALCP) vise à garantir la libre circulation et à faciliter la prestation de services sur le territoire des parties contractantes. Or la réalisation de ces objectifs dépend avant tout de la mise en oeuvre effective de l'interdiction de discrimination en raison de la nationalité consacrée par l'ALCP, véritable clé de voûte de l'Accord. Le présent ouvrage s'attache, dans un premier temps, à l'analyse du principe de libre circulation et à l'examen du fonctionnement de l'ALCP - examen portant notamment sur le rôle joué par la jurisprudence de la Cour de justice des Communautés européennes dans le cadre de l'interprétation de cet Accord (Partie I). Dans un second temps, cet ouvrage se penche sur la question centrale de l'interdiction de discrimination en raison de la nationalité (Partie II). Pour ce faire, il propose tout d'abord une définition de la notion de discrimination elle-même et détermine ensuite le champ d'application matériel et personnel des principales dispositions de l'ALCP interdisant les discriminations. Dans ce cadre, une attention toute particulière est accordée à la question de la potentielle portée horizontale de ces dispositions. Ensuite, l'ouvrage procède à une analyse complète des principes et dispositions susceptibles de limiter la portée de cette interdiction,avant de conclure par un examen détaillé des conséquences administratives et civiles induites par la présence d'un cas de discrimination effectif.
Resumo:
La station valaisanne de Crans-Montana est richement représentée par la photographie, la peinture, les affiches et l'architecture. Cette thèse de doctorat s'emploie à réunir un large corpus de photographies et de représentations : peintures, affiches, cartes postales et reproductions de bâtiments emblématiques (voir le corpus illustré et documentaire annexé). Les questions liées à l'identité du territoire et son image sont les fils conducteurs de ce travail qui a débuté en 2008. Un premier ensemble visuel a été réuni par le Dr Théodore Stephani (1868-1951), un acteur fondamental pour l'histoire de la naissance de la station. Médecin, mais également photographe, il réalise une collection de plus de 1300 clichés, réunie en six albums, sur une période de trente-sept ans (1899-1936). Les photographies du médecin, originaire de Genève, fondateur de ce lieu désormais touristique sont le point de départ de cette recherche et son fil rouge. Celle-ci tentera d'articuler des représentations sur l'évolution du paysage et l'urbanisation de la station autour d'acteurs illustres, tels que les peintres Ferdinand Hodler (1853-1918) et Albert Muret (1874-1955), l'écrivain Charles-Ferdinand Ramuz (1878-1947) et les nombreux hôteliers ou médecins qui ont marqué l'histoire de la naissance du Haut-Plateau. Les représentations débutent en 1896 car c'est à ce moment-là que le Dr Stephani s'établit à Montana. Les architectes les plus connus de la première période sont François-Casimir Besson (1869-1944), Markus Burgener (1878-1953), suivi de la deuxième génération autour de Jean-Marie Ellenberger (1913-1988), André Perraudin (1915-2014) et André Gaillard (1921-2010). Parallèlement ou avant eux, les peintres déjà cités, Ferdinand Hodler et Albert Muret, - suivis de René Auberjonois (1872-1957), Henri-Edouard Bercher (1877-1970), Charles-Clos Olsommer (1883-1966), Oskar Kokoschka (1886-1980), Albert Chavaz (1907¬1990), Paul Monnier (1907-1982) et Hans Emi (1909-2015) - qui appartiennent tous à l'histoire culturelle de la région. Quant aux écrivains qui ont résidé dans la région, nous citons Elizabeth von Arnim (1866-1941), sa cousine Katherine Mansfield (1888-1923) alors que l'oeuvre de Charles-Ferdinand Ramuz est largement développée par une interprétation de son oeuvre Le Règne de l'esprit malin (1917) et un clin d'oeil pour Igor Stravinsky (1882¬1971). Nous présenterons aussi les films de trois cinéastes qui se sont inspirés des oeuvres écrites par Ramuz lors de son passage à Lens, à savoir Dimitri Kirsanoff (1899-1957), Claude Goretta (1929) et Francis Reusser (1942). Le concept du « village » est abordé depuis l'exposition nationale suisse (1896) jusqu'au projet des investisseurs russes, à Aminona. Ce « village » est le deuxième mégaprojet de Suisse, après celui d'Andermatt. Si le projet se réalise, l'image de la station s'en trouvera profondément transformée. En 1998, la publication de Au bord de la falaise. L'histoire entre certitudes et inquiétudes amène une grande visibilité aux propositions de Roger Chartier, qui lie l'étude des textes aux objets matériels et les usages qu'ils engendrent dans la société. Il définit l'histoire culturelle comme "une histoire culturelle du social" alors que pour Pascal Ory, une histoire culturelle est "comme une forme d'histoire sociale", ce qui revient presque au même, mais nous choisirons celle d'Ory pour une histoire sociale du paysage et de l'architecture. Ce travail adopte ainsi plusieurs points de vue : l'histoire sociale, basée sur les interviews de nombreux protagonistes de l'histoire locale, et l'histoire de l'art qui permet une sélection d'objets emblématiques ; l'histoire culturelle offre ainsi une méthode transversale pour lire et relier ces différents regards ou points de vue entre les paysages, les arts visuels, l'architecture, la littérature et le cinéma.
Resumo:
Ce travail présente une étude de cas post-catastrophe à San Cristobal, Guatemala, où un important glissement de terrain du nom «Los Chorros» (8-10 millions de m3 de roche) affecte depuis 2009 diverses communautés et une des routes principales du pays. Les gestionnaires des risques, sur la base de leur propre évaluation, ont décidé de répondre d'une manière qui ne correspond pas aux intérêts de la population affectée. Les communautés locales ont évalué le risque de catastrophe et ont établi une autre solution suivant une conception du risque différente. Les conflits sociaux et la concurrence entre les différents acteurs du territoire, pour la définition des priorités et des solutions, révèlent les aspects sous-jacents de la société, utiles pour identifier et comprendre ce qui constitue le risque de catastrophe dans un contexte donné. Ce conflit montre que le risque de catastrophe n'est pas univoque mais un concept complexe, constitué par un grand nombre de composants. En termes de gouvernance, il met également en évidence la confrontation des savoirs et la tension qui peut exister entre les différentes approches du risque. Depuis une approche où le risque de catastrophe est considéré comme une construction sociale (les vulnérabilités étant historiquement générées par des processus sociaux, politiques, économiques et culturels), ce travail évalue d'autres modes d'interprétation, de traitement et d'intervention qui peuvent aider à améliorer les méthodes d'évaluation et de gestion des risques. Enfin, la proposition de gestion qui découle de l'exemple guatémaltèque invite à une autre manière de concevoir la gestion des risques en intégrant les différentes conceptions du risque et en visant une coordination stratégique entre les acteurs des politiques publiques, les échelles d'intervention, les experts en charge des différents aléas et la société civile, afin d'obtenir une solution acceptable pour tous les acteurs impliqués dans un territoire. -- This work analyses a post-disaster case study from San Cristobal, Guatemala where a large landslide named "Los Chorros (8 millions cubic meters of rock) affects several communities and one of the country's main west-east access highways. Risk managers, starting from their own assessment, decided to respond in a way that does not correspond to the interests of the afected population. Local communities assessed the risk disaster situation and establised another solution from a different conception of risk. These social conflict and competition for priorities and solutions for risk management reveal that disaster risk is not unequivocal but a complex and holistic concept, constituted by a large set of components. From a social constructivism approach, where disaster risk is considered as the results of social, political, economic and historic process, this thesis evaluates other modes of interpreting, shaping and managing risk that can help improve methods of risk assessment and management. Studying the logic of action of actors, who mobilize to establish a solution, enables to identify as to what constitutes a disaster. For this reason, the study focus, in particular, on the analysis of practices (practical science) implemented by all actors in San Cristobal Altaverapaz. Finally, it puts into perspective the risk management in terms of an integrative approach for policy experts that find compromise between different conceptions of risk in order to obtain a solution acceptable to all those involved.
Resumo:
Depuis deux années et demie, l'équipe de Dahlia participe d'un projet, élaboré par le Dr Ch. Bryois, dont les objectifs principaux d'accueil des premiers séjours et pour une durée moyenne de 15 jours, contredisaient les habitudes institutionnelles. Ses porte-parole nous expliquent comment l'équipe a vécu la mise en place de ce modèle, les problèmes rencontrés, les avancées qu'il a introduites dans sa pratique et son élaboration théorique. L'initiateur de cette unité nous a donné, dans une interview, sa propre interprétation de cette expérience.
Resumo:
Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.
Resumo:
Résumé: L'impact de la maladie d'Alzheimer (MA) est dévastateur pour la vie quotidienne de la personne affectée, avec perte progressive de la mémoire et d'autres facultés cognitives jusqu'à la démence. Il n'existe toujours pas de traitement contre cette maladie et il y a aussi une grande incertitude sur le diagnostic des premiers stades de la MA. La signature anatomique de la MA, en particulier l'atrophie du lobe temporal moyen (LTM) mesurée avec la neuroimagerie, peut être utilisée comme un biomarqueur précoce, in vivo, des premiers stades de la MA. Toutefois, malgré le rôle évident du LMT dans les processus de la mémoire, nous savons que les modèles anatomiques prédictifs de la MA basés seulement sur des mesures d'atrophie du LTM n'expliquent pas tous les cas cliniques. Au cours de ma thèse, j'ai conduit trois projets pour comprendre l'anatomie et le fonctionnement du LMT dans (1) les processus de la maladie et dans (2) les processus de mémoire ainsi que (3) ceux de l'apprentissage. Je me suis intéressée à une population avec déficit cognitif léger (« Mild Cognitive Impairment », MCI), à risque pour la MA. Le but du premier projet était de tester l'hypothèse que des facteurs, autres que ceux cognitifs, tels que les traits de personnalité peuvent expliquer les différences interindividuelles dans le LTM. De plus, la diversité phénotypique des manifestations précliniques de la MA provient aussi d'une connaissance limitée des processus de mémoire et d'apprentissage dans le cerveau sain. L'objectif du deuxième projet porte sur l'investigation des sous-régions du LTM, et plus particulièrement de leur contribution dans différentes composantes de la mémoire de reconnaissance chez le sujet sain. Pour étudier cela, j'ai utilisé une nouvelle méthode multivariée ainsi que l'IRM à haute résolution pour tester la contribution de ces sous-régions dans les processus de familiarité (« ou Know ») et de remémoration (ou « Recollection »). Finalement, l'objectif du troisième projet était de tester la contribution du LTM en tant que système de mémoire dans l'apprentissage et l'interaction dynamique entre différents systèmes de mémoire durant l'apprentissage. Les résultats du premier projet montrent que, en plus du déficit cognitif observé dans une population avec MCI, les traits de personnalité peuvent expliquer les différences interindividuelles du LTM ; notamment avec une plus grande contribution du neuroticisme liée à une vulnérabilité au stress et à la dépression. Mon étude a permis d'identifier un pattern d'anormalité anatomique dans le LTM associé à la personnalité avec des mesures de volume et de diffusion moyenne du tissu. Ce pattern est caractérisé par une asymétrie droite-gauche du LTM et un gradient antéro-postérieur dans le LTM. J'ai interprété ce résultat par des propriétés tissulaires et neurochimiques différemment sensibles au stress. Les résultats de mon deuxième projet ont contribué au débat actuel sur la contribution des sous-régions du LTM dans les processus de familiarité et de remémoration. Utilisant une nouvelle méthode multivariée, les résultats supportent premièrement une dissociation des sous-régions associées aux différentes composantes de la mémoire. L'hippocampe est le plus associé à la mémoire de type remémoration et le cortex parahippocampique, à la mémoire de type familiarité. Deuxièmement, l'activation correspondant à la trace mnésique pour chaque type de mémoire est caractérisée par une distribution spatiale distincte. La représentation neuronale spécifique, « sparse-distributed», associée à la mémoire de remémoration dans l'hippocampe serait la meilleure manière d'encoder rapidement des souvenirs détaillés sans interférer les souvenirs précédemment stockés. Dans mon troisième projet, j'ai mis en place une tâche d'apprentissage en IRM fonctionnelle pour étudier les processus d'apprentissage d'associations probabilistes basé sur le feedback/récompense. Cette étude m'a permis de mettre en évidence le rôle du LTM dans l'apprentissage et l'interaction entre différents systèmes de mémoire comme la mémoire procédurale, perceptuelle ou d'amorçage et la mémoire de travail. Nous avons trouvé des activations dans le LTM correspondant à un processus de mémoire épisodique; les ganglions de la base (GB), à la mémoire procédurale et la récompense; le cortex occipito-temporal (OT), à la mémoire de représentation perceptive ou l'amorçage et le cortex préfrontal, à la mémoire de travail. Nous avons également observé que ces régions peuvent interagir; le type de relation entre le LTM et les GB a été interprété comme une compétition, ce qui a déjà été reporté dans des études récentes. De plus, avec un modèle dynamique causal, j'ai démontré l'existence d'une connectivité effective entre des régions. Elle se caractérise par une influence causale de type « top-down » venant de régions corticales associées avec des processus de plus haut niveau venant du cortex préfrontal sur des régions corticales plus primaires comme le OT cortex. Cette influence diminue au cours du de l'apprentissage; cela pourrait correspondre à un mécanisme de diminution de l'erreur de prédiction. Mon interprétation est que cela est à l'origine de la connaissance sémantique. J'ai également montré que les choix du sujet et l'activation cérébrale associée sont influencés par les traits de personnalité et des états affectifs négatifs. Les résultats de cette thèse m'ont amenée à proposer (1) un modèle expliquant les mécanismes possibles liés à l'influence de la personnalité sur le LTM dans une population avec MCI, (2) une dissociation des sous-régions du LTM dans différents types de mémoire et une représentation neuronale spécifique à ces régions. Cela pourrait être une piste pour résoudre les débats actuels sur la mémoire de reconnaissance. Finalement, (3) le LTM est aussi un système de mémoire impliqué dans l'apprentissage et qui peut interagir avec les GB par une compétition. Nous avons aussi mis en évidence une interaction dynamique de type « top -down » et « bottom-up » entre le cortex préfrontal et le cortex OT. En conclusion, les résultats peuvent donner des indices afin de mieux comprendre certains dysfonctionnements de la mémoire liés à l'âge et la maladie d'Alzheimer ainsi qu'à améliorer le développement de traitement. Abstract: The impact of Alzheimer's disease is devastating for the daily life of the affected patients, with progressive loss of memory and other cognitive skills until dementia. We still lack disease modifying treatment and there is also a great amount of uncertainty regarding the accuracy of diagnostic classification in the early stages of AD. The anatomical signature of AD, in particular the medial temporal lobe (MTL) atrophy measured with neuroimaging, can be used as an early in vivo biomarker in early stages of AD. However, despite the evident role of MTL in memory, we know that the derived predictive anatomical model based only on measures of brain atrophy in MTL does not explain all clinical cases. Throughout my thesis, I have conducted three projects to understand the anatomy and the functioning of MTL on (1) disease's progression, (2) memory process and (3) learning process. I was interested in a population with mild cognitive impairment (MCI), at risk for AD. The objective of the first project was to test the hypothesis that factors, other than the cognitive ones, such as the personality traits, can explain inter-individual differences in the MTL. Moreover, the phenotypic diversity in the manifestations of preclinical AD arises also from the limited knowledge of memory and learning processes in healthy brain. The objective of the second project concerns the investigation of sub-regions of the MTL, and more particularly their contributions in the different components of recognition memory in healthy subjects. To study that, I have used a new multivariate method as well as MRI at high resolution to test the contribution of those sub-regions in the processes of familiarity and recollection. Finally, the objective of the third project was to test the contribution of the MTL as a memory system in learning and the dynamic interaction between memory systems during learning. The results of the first project show that, beyond cognitive state of impairment observed in the population with MCI, the personality traits can explain the inter-individual differences in the MTL; notably with a higher contribution of neuroticism linked to proneness to stress and depression. My study has allowed identifying a pattern of anatomical abnormality in the MTL related to personality with measures of volume and mean diffusion of the tissue. That pattern is characterized by right-left asymmetry in MTL and an anterior to posterior gradient within MTL. I have interpreted that result by tissue and neurochemical properties differently sensitive to stress. Results of my second project have contributed to the actual debate on the contribution of MTL sub-regions in the processes of familiarity and recollection. Using a new multivariate method, the results support firstly a dissociation of the subregions associated with different memory components. The hippocampus was mostly associated with recollection and the surrounding parahippocampal cortex, with familiarity type of memory. Secondly, the activation corresponding to the mensic trace for each type of memory is characterized by a distinct spatial distribution. The specific neuronal representation, "sparse-distributed", associated with recollection in the hippocampus would be the best way to rapidly encode detailed memories without overwriting previously stored memories. In the third project, I have created a learning task with functional MRI to sudy the processes of learning of probabilistic associations based on feedback/reward. That study allowed me to highlight the role of the MTL in learning and the interaction between different memory systems such as the procedural memory, the perceptual memory or priming and the working memory. We have found activations in the MTL corresponding to a process of episodic memory; the basal ganglia (BG), to a procedural memory and reward; the occipito-temporal (OT) cortex, to a perceptive memory or priming and the prefrontal cortex, to working memory. We have also observed that those regions can interact; the relation type between the MTL and the BG has been interpreted as a competition. In addition, with a dynamic causal model, I have demonstrated a "top-down" influence from cortical regions associated with high level cortical area such as the prefrontal cortex on lower level cortical regions such as the OT cortex. That influence decreases during learning; that could correspond to a mechanism linked to a diminution of prediction error. My interpretation is that this is at the origin of the semantic knowledge. I have also shown that the subject's choice and the associated brain activation are influenced by personality traits and negative affects. Overall results of this thesis have brought me to propose (1) a model explaining the possible mechanism linked to the influence of personality on the MTL in a population with MCI, (2) a dissociation of MTL sub-regions in different memory types and a neuronal representation specific to each region. This could be a cue to resolve the actual debates on recognition memory. Finally, (3) the MTL is also a system involved in learning and that can interact with the BG by a competition. We have also shown a dynamic interaction of « top -down » and « bottom-up » types between the pre-frontal cortex and the OT cortex. In conclusion, the results could give cues to better understand some memory dysfunctions in aging and Alzheimer's disease and to improve development of treatment.
Resumo:
La contribution examine le rôle joué par les principes régissant la TVA dans la mise en oeuvre de cet impôt. Ces principes, aussi appelés « principes directeurs », sont immanents à la TVA et déploient leurs effets depuis l'apparition de la TVA en Suisse, indépendamment de leur codification dans la loi. L'article examine donc la portée de ces principes qui jouent avant tout un rôle de guide à l'interprétation, censé garantir l'application de la TVA conformément à sa nature d'impôt à la consommation finale. Or, par le passé, malgré l'énoncé des principes directeurs dans la loi depuis 2001, ils ne suffirent pas à assurer la mise en place d'une TVA neutre pour les entreprises. La contribution montre comment la Loi fédérale régissant la taxe sur la valeur ajoutée (LTVA) entrée en vigueur en 2010 a repris les principes directeurs, mais les a également concrétisés dans de nombreuses règles techniques qui devraient permettre d'en assurer effectivement une mise en pratique plus efficace.
Resumo:
In my thesis, I defend the idea that Aristotle's notion of phronêsis (practical wisdom) is best understood as a kind of practical knowledge. I interpret phronêsis as the knowledge we display when we make the correct decision to act. In a particular situation that demands a specific response, we have practical knowledge of what to do when we make the best decision possible. This interpretation of phronêsis involves that it is possible to evaluate our decisions epistemically, that is, to evaluate whether we really know what to do or not. Aristotle provides a tool for the evaluation of our decisions, which is a definite kind of argument and which the tradition has called the 'practical syllogism'. The practical syllogism stands as the explanation of our decisions or actions. We invoke it when we want to explain or justify why we act as we do. My claim is that the components of the practical syllogism enable one to evaluate not only the moral character of our actions, but also the epistemic strength of our decisions. Correspondingly, a decision is morally right, i.e. virtuous, if the agent considers the right moral principle to apply, and if he is aware of the relevant circumstances of the situation (moral evaluation). Moreover, a decision displays practical knowledge if the agent meets three conditions (epistemic evaluation): he must desire the moral principle for its own sake; he must have experience in spotting the relevant circumstances of the situation; and he must be able to closely connect these circumstances with the moral principle. This interpretation of phronêsis differs from other more traditional interpretations in the emphasis it puts on phronêsis as knowledge. Other interpretations focus more on the moral dimension on phronêsis, without taking its epistemic value seriously. By contrast, I raise seriously the question of what it takes to genuinely know what one should do in a particular situation. -- Dans ma thèse, je défends l'idée que la notion aristotélicienne de phronêsis (sagesse pratique) doit être interprétée comme connaissance pratique. Je comprends la phronêsis comme étant la connaissance que nous avons lorsque nous prenons une bonne décision. Dans une situation particulière qui demande une réponse précise, nous avons une connaissance pratique lorsque nous prenons la meilleure décision possible. Cette interprétation de la phronêsis implique qu'il est possible d'évaluer nos décisions de manière épistémique, c'est-à-dire, d'évaluer si nous savons vraiment ce qu'il faut faire ou non. Ma position est qu'Aristote fournit un outil pour évaluer épistémiquement nos décisions, qui consiste en un certain type d'argument et que la tradition a appelé le 'syllogisme pratique'. Le syllogisme pratique correspond à l'explication de nos décisions ou de nos actions. Nous invoquons un syllogisme pratique lorsque nous voulons expliquer ou justifier pourquoi nous agissons comme nous le faisons. Les éléments du syllogisme pratique permettent d'évaluer non seulement le caractère moral de nos actions, mais aussi la force épistémique de nos décisions. Par conséquent, une décision est moralement correcte, i.e. vertueuse, si l'agent considère le bon principe moral, et s'il est attentif aux circonstances pertinentes de la situation (évaluation morale). En outre, une décision inclut la connaissance pratique si l'agent remplit trois conditions (évaluation épistémique) : il doit désirer le principe moral pour lui-même, il doit avoir de l'expérience pour déceler les circonstances pertinentes, et il doit pouvoir lier intimement ces circonstances avec le principe moral. Cette interprétation de la phronêsis diffère d'autres interprétations plus traditionnelles par l'emphase mise sur la phronêsis en tant que connaissance. D'autres interprétations se concentrent plus sur la dimension morale de la phronêsis, sans se préoccuper sérieusement de sa valeur épistémique. Au contraire, je pose sérieusement la question des conditions nécessaires pour réellement savoir ce qu'il faut faire dans une situation donnée.
Resumo:
The Ivrea and the Strona-Ceneri zones, NW italy and S Switzerland, offer the possibility to study the continental crust of the Southern Alps. Because of its high metamorphic degree and the abundant Permo- Carboniferous mafic intrusions, the Ivrea Zone is classically interpreted an exposed section trough the Permian lower crust. The present work is focused here on metasedimentary slices (septa) intercalated within Permian gabbro (mafic complex). In particular I studied the evolution of accessory phases such as rutile and zircon and the chemistry of the metasediments. The septa build an irregular and discontinuous band that cut obliquely the mafic complex from its deepest part (N) to its roof (S). The chemistry of the metasediments evolves along the band and the chemical evolution can be compared with that observed in the country-rock surrounding the mafic intrusion to the NE and overprinted by a main regional metamorphic event. This suggests that the degree of chemical depletion of the septa was mainly established during the same regional metamorphic event. Moreover it suggests that incorporation of the septa within the gabbro did not modify their original stratigraphie distribution within the crust. It implies that the mafic complex has been emplaced following a dynamic substantially different from the classic model of « gabbro glacier » (Quick et al., 1992; Quick et al., 1994). It is more likely that it has been emplaced by repeated injections of sills at different depths during a protracted period of time. Zircon trace elements and U-Pb ages suggest that regional metamorphism occurred 330-320Ma, the first sills in the deepest part of the Mafic Complex are injected at ~300Ma, the mafic magmas reached higher levels in the crust at 285Ma and the magmatic activity continued locally until 275Ma. The ages of detrital cores in zircons fix the maximal sedimentation age at ~370Ma, this age corresponds therefore with the maximal age of the incorporation of the Ivrea zone within the lower crust. I propose that the Ivrea zone has been accreted to the lower crust during the Hercynian orogeny sensu lato. The analysis of detrital ages suggests that the source terrains for the Ivrea zone and those for the Strona-Ceneri zone have a completely different Palaeozoic history. The systematic analysis of rutile in partially molten metasediments of the Ivrea zone reveals the occurrence of two generations. The two generations are characterized by a different chemistry and textural distribution. A first generation is formed during pro-grade metamorphism in the restitic counterpart. The second generation is formed in the melts during cooling at the same time that part of the first generation re-equilibrate. Re-equilibration of the first generation seems to be spatially controlled by the presence of fluids. Locally the second generation forms overgrowths on the first generation. Considered the different diffusivity of U and Pb in rutile, U heterogeneities have important implication for U-Pb dating of rutile. ID-TIMS and LA-ICPMS dating coupled with a careful textural investigation (SEM) suggest that rutile grains are characterized by multiple path along which Pb diffusion can occur: volume diffusion is an important process, but intragrain and subgrain boundaries provide additional high diffusivity pathways for Pb escape and reduce drastically the effective diffusion length. -- La zone d'Ivrea et la zone de Strona-Ceneri, en Italie nord-occidentale et Suisse méridionale, offrent la possibilité d'étudier la croûte continentale des Alpes du Sud. En raison du haut degré métamorphique et l'abondance d'intrusions mafiques d'âge Permo-Carbonifère [complexe mafique), la zone d'Ivrea est interprétée classiquement comme de la croûte inférieure permienne. Ce travail ce concentre sur des bandes metasédimentaires (septa) incorporées dans les magmas mafiques lors de l'intrusion. Les septa forment une bande irrégulière qui coupe obliquement le complexe mafique du bas (N) vers le haut (S). La chimie des septa évolue du bas vers le haut et l'évolution chimique se rapproche de l'évolution observé dans la roche encaissante l'intrusion affecté par un événement métamorphique régionale. Cette relation suggère que le degré d'appauvrissement chimique des septa a été établit principalement lors de l'événement métamorphique régional. De plus l'incorporation dans les gabbros n'a pas perturbée la distribution stratigraphique originelle des septa. Ces deux observations impliquent que le métamorphisme dans la roche encaissante précède la mise en place du gabbro et que cette dernière ne se fait pas selon le modèle classique (« gabbro glacier » de Quick et al., 1992, 1994), mais se fait plutôt par injections répétées de sills a différentes profondeurs. Les âges U-Pb et les éléments traces des zircons suggèrent que le métamorphisme régionale a eu lieu 330-320Ma, alors que les premiers sills dans la partie profonde du Mafic Complex s'injectent à ~300Ma, le magmatisme mafique atteigne des niveaux supérieurs à 285Ma et continue localement jusqu'à 270Ma. Les âges des coeurs détritiques des zircons permettent de fixer l'âge maximale de sédimentation à ~370Ma ce qui correspond donc à l'âge maximale de l'incorporation de la zone d'Ivrea dans la croûte inférieur. L'analyse systématique des rutiles, nous a permit de montrer l'existence de plusieurs générations qui ont une répartition texturale et une chimie différente. Une génération se forme lors de l'événement UHT dans les restites, une autre génération se forme dans les liquides lors du refroidissement, au même temps qu'une partie de la première génération se rééquilibre au niveau du Zr. Localement la deuxième génération peut former des surcroissances autour de la première génération. Dans ces cas, des fortes différences en uranium entre les deux générations ont des importantes implications pour la datation U-Pb sur rutile. Classiquement les ratios Pb/U dans le rutile sont interprétés comme indiquant l'âges du refroidissement du minéral sous une température à la quelle la diffusion du Pb dans le minéral n'est plus détectable et la diffusion à plus hautes températures est assumée se faire par «volume diffusion» dans le grain (Mezger et al., 1989). Par des datations ID-TIMS (sur grain entier) et LA-ICPMS (in-situ) et une analyse texturale (MEB) approfondie nous montrons que cette supposition est trop simpliste et que le rutile est repartie en sous-domaines. Chacun de ces domaines a ça propre longueur ou chemin de diffusion spécifique. Nous proposons donc une nouvelle approche plus cohérente pour l'interprétation des âges U-Pb sur rutile.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.