228 resultados para Parigi,Grands,Ensembles.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The geodynamic forces acting in the Earth's interior manifest themselves in a variety of ways. Volcanoes are amongst the most impressive examples in this respect, but like with an iceberg, they only represent the tip of a more extensive system hidden underground. This system consists of a source region where melt forms and accumulates, feeder connections in which magma is transported towards the surface, and different reservoirs where it is stored before it eventually erupts to form a volcano. A magma represents a mixture of melt and crystals. The latter can be extracted from the source region, or form anywhere along the path towards their final crystallization place. They will retain information of the overall plumbing system. The host rocks of an intrusion, in contrast, provide information at the emplacement level. They record the effects of thermal and mechanical forces imposed by the magma. For a better understanding of the system, both parts - magmatic and metamorphic petrology - have to be integrated. I will demonstrate in my thesis that information from both is complementary. It is an iterative process, using constraints from one field to better constrain the other. Reading the history of the host rocks is not always straightforward. This is shown in chapter two, where a model for the formation of clustered garnets observed in the contact aureole is proposed. Fragments of garnets, older than the intrusive rocks are overgrown by garnet crystallizing due to the reheating during emplacement of the adjacent pluton. The formation of the clusters is therefore not a single event as generally assumed but the result of a two-stage process, namely the alteration of the old grains and the overgrowth and amalgamation of new garnet rims. This makes an important difference when applying petrological methods such as thermobarometry, geochronology or grain size distributions. The thermal conditions in the aureole are a strong function of the emplacement style of the pluton. therefore it is necessary to understand the pluton before drawing conclusions about its aureole. A study investigating the intrusive rocks by means of field, geochemical, geochronologi- cal and structural methods is presented in chapter three. This provided important information about the assembly of the intrusion, but also new insights on the nature of large, homogeneous plutons and the structure of the plumbing system in general. The incremental nature of the emplacement of the Western Adamello tonalité is documented, and the existence of an intermediate reservoir beneath homogeneous plutons is proposed. In chapter four it is demonstrated that information extracted from the host rock provides further constraints on the emplacement process of the intrusion. The temperatures obtain by combining field observations with phase petrology modeling are used together with thermal models to constrain the magmatic activity in the immediate intrusion. Instead of using the thermal models to control the petrology result, the inverse is done. The model parameters were changed until a match with the aureole temperatures was obtained. It is shown, that only a few combinations give a positive match and that temperature estimates from the aureole can constrain the frequency of ancient magmatic systems. In the fifth chapter, the Anisotropy of Magnetic Susceptibility of intrusive rocks is compared to 3D tomography. The obtained signal is a function of the shape and distribution of ferromagnetic grains, and is often used to infer flow directions of magma. It turns out that the signal is dominated by the shape of the magnetic crystals, and where they form tight clusters, also by their distribution. This is in good agreement with the predictions made in the theoretical and experimental literature. In the sixth chapter arguments for partial melting of host rock carbonates are presented. While at first very surprising, this is to be expected when considering the prior results from the intrusive study and experiments from the literature. Partial melting is documented by compelling microstructures, geochemical and structural data. The necessary conditions are far from extreme and this process might be more frequent than previously thought. The carbonate melt is highly mobile and can move along grain boundaries, infiltrating other rocks and ultimately alter the existing mineral assemblage. Finally, a mineralogical curiosity is presented in chapter seven. The mineral assemblage magne§site and calcite is in apparent equilibrium. It is well known that these two carbonates are not stable together in the system Ca0-Mg0-Fe0-C02. Indeed, magnesite and calcite should react to dolomite during metamorphism. The presented explanation for this '"forbidden" assemblage is, that a calcite melt infiltrated the magnesite bearing rock along grain boundaries and caused the peculiar microstructure. This is supported by isotopie disequilibrium between calcite and magnesite. A further implication of partially molten carbonates is, that the host rock drastically looses its strength so that its physical properties may be comparable to the ones of the intrusive rocks. This contrasting behavior of the host rock may ease the emplacement of the intrusion. We see that the circle closes and the iterative process of better constraining the emplacement could start again. - La Terre est en perpétuel mouvement et les forces tectoniques associées à ces mouvements se manifestent sous différentes formes. Les volcans en sont l'un des exemples les plus impressionnants, mais comme les icebergs, les laves émises en surfaces ne représentent que la pointe d'un vaste système caché dans les profondeurs. Ce système est constitué d'une région source, région où la roche source fond et produit le magma ; ce magma peut s'accumuler dans cette région source ou être transporté à travers différents conduits dans des réservoirs où le magma est stocké. Ce magma peut cristalliser in situ et produire des roches plutoniques ou alors être émis en surface. Un magma représente un mélange entre un liquide et des cristaux. Ces cristaux peuvent être extraits de la source ou se former tout au long du chemin jusqu'à l'endroit final de cristallisation. L'étude de ces cristaux peut ainsi donner des informations sur l'ensemble du système magmatique. Au contraire, les roches encaissantes fournissent des informations sur le niveau d'emplacement de l'intrusion. En effet ces roches enregistrent les effets thermiques et mécaniques imposés par le magma. Pour une meilleure compréhension du système, les deux parties, magmatique et métamorphique, doivent être intégrées. Cette thèse a pour but de montrer que les informations issues de l'étude des roches magmatiques et des roches encaissantes sont complémentaires. C'est un processus itératif qui utilise les contraintes d'un domaine pour améliorer la compréhension de l'autre. Comprendre l'histoire des roches encaissantes n'est pas toujours aisé. Ceci est démontré dans le chapitre deux, où un modèle de formation des grenats observés sous forme d'agrégats dans l'auréole de contact est proposé. Des fragments de grenats plus vieux que les roches intru- sives montrent une zone de surcroissance générée par l'apport thermique produit par la mise en place du pluton adjacent. La formation des agrégats de grenats n'est donc pas le résultat d'un seul événement, comme on le décrit habituellement, mais d'un processus en deux phases, soit l'altération de vieux grains engendrant une fracturation de ces grenats, puis la formation de zone de surcroissance autour de ces différents fragments expliquant la texture en agrégats observée. Cette interprétation en deux phases est importante, car elle engendre des différences notables lorsque l'on applique des méthodes pétrologiques comme la thermobarométrie, la géochronologie ou encore lorsque l'on étudie la distribution relative de la taille des grains. Les conditions thermales dans l'auréole de contact dépendent fortement du mode d'emplacement de l'intrusion et c'est pourquoi il est nécessaire de d'abord comprendre le pluton avant de faire des conclusions sur son auréole de contact. Une étude de terrain des roches intrusives ainsi qu'une étude géochimique, géochronologique et structurale est présente dans le troisième chapitre. Cette étude apporte des informations importantes sur la formation de l'intrusion mais également de nouvelles connaissances sur la nature de grands plutons homogènes et la structure de système magmatique en général. L'emplacement incrémental est mis en évidence et l'existence d'un réservoir intermédiaire en-dessous des plutons homogènes est proposé. Le quatrième chapitre de cette thèse illustre comment utiliser l'information extraite des roches encaissantes pour expliquer la mise en place de l'intrusion. Les températures obtenues par la combinaison des observations de terrain et l'assemblage métamorphique sont utilisées avec des modèles thermiques pour contraindre l'activité magmatique au contact directe de cette auréole. Au lieu d'utiliser le modèle thermique pour vérifier le résultat pétrologique, une approche inverse a été choisie. Les paramètres du modèle ont été changés jusqu'à ce qu'on obtienne une correspondance avec les températures observées dans l'auréole de contact. Ceci montre qu'il y a peu de combinaison qui peuvent expliquer les températures et qu'on peut contraindre la fréquence de l'activité magmatique d'un ancien système magmatique de cette manière. Dans le cinquième chapitre, les processus contrôlant l'anisotropie de la susceptibilité magnétique des roches intrusives sont expliqués à l'aide d'images de la distribution des minéraux dans les roches obtenues par tomographie 3D. Le signal associé à l'anisotropie de la susceptibilité magnétique est une fonction de la forme et de la distribution des grains ferromagnétiques. Ce signal est fréquemment utilisé pour déterminer la direction de mouvement d'un magma. En accord avec d'autres études de la littérature, les résultats montrent que le signal est dominé par la forme des cristaux magnétiques, ainsi que par la distribution des agglomérats de ces minéraux dans la roche. Dans le sixième chapitre, une étude associée à la fusion partielle de carbonates dans les roches encaissantes est présentée. Si la présence de liquides carbonatés dans les auréoles de contact a été proposée sur la base d'expériences de laboratoire, notre étude démontre clairement leur existence dans la nature. La fusion partielle est documentée par des microstructures caractéristiques pour la présence de liquides ainsi que par des données géochimiques et structurales. Les conditions nécessaires sont loin d'être extrêmes et ce processus pourrait être plus fréquent qu'attendu. Les liquides carbonatés sont très mobiles et peuvent circuler le long des limites de grain avant d'infiltrer d'autres roches en produisant une modification de leurs assemblages minéralogiques. Finalement, une curiosité minéralogique est présentée dans le chapitre sept. L'assemblage de minéraux de magnésite et de calcite en équilibre apparent est observé. Il est bien connu que ces deux carbonates ne sont pas stables ensemble dans le système CaO-MgO-FeO-CO.,. En effet, la magnésite et la calcite devraient réagir et produire de la dolomite pendant le métamorphisme. L'explication présentée pour cet assemblage à priori « interdit » est que un liquide carbonaté provenant des roches adjacentes infiltre cette roche et est responsable pour cette microstructure. Une autre implication associée à la présence de carbonates fondus est que la roche encaissante montre une diminution drastique de sa résistance et que les propriétés physiques de cette roche deviennent comparables à celles de la roche intrusive. Cette modification des propriétés rhéologiques des roches encaissantes peut faciliter la mise en place des roches intrusives. Ces différentes études démontrent bien le processus itératif utilisé et l'intérêt d'étudier aussi bien les roches intrusives que les roches encaissantes pour la compréhension des mécanismes de mise en place des magmas au sein de la croûte terrestre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Ethique de la biologie, mais aussi éthique de la science, des affaires, des assurances, de lentreprise, du corps et de la sexualité, de la communication, de lenvironnement, de la famille... Les champs dapplication de léthique sont sans limites. ... Composé de trois parties, cet ouvrage présente dabord les grandes options philosophiques (libéralisme, utilitarisme, éthique de la discussion, etc.) et les grandes figures (Aristote, Kant, Spinoza, Heidegger, Foucault, etc.) en matière déthique, puis les différents domaines concernés, et enfin les grands débats (pour ou contre la pornographie, le clonage, l'euthanasie, l'éducation, l'avortement...). Écrit de façon pédagogique, il donne une bibliographie très actuelle pour chaque entrée, un index des thèmes et des noms. L'ouvrage rassemble plus de cinquante intervenants francophones. ...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Menée dans une approche d'histoire culturelle, cette thèse de doctorat prend pour objet un corpus de guides de voyage en Suisse entre la fin du XVIIIe et le début du XXe siècle. Centrée sur les guides, ces livres qui entretiennent plus que d'autres des liens étroits avec le monde physique, elle a deux grands axes. Le premier est une lecture interdisciplinaire des guides de voyage, qui mêle littérature, bibliographie matérielle, histoire et histoire de l'art. Elle a cherché à comprendre les raisons et logiques du genre, en s'attachant particulièrement à ses fonctions et à ses formes (tant structurelles que textuelles et iconographiques). Cette partie de l'étude est importante, car elle n'a encore jamais été menée. Elle s'articule en deux volets : un volet théorique qui s'intéresse à l'histoire et à la forme des guides de voyage ; et une étude de cas qui s'attache à la lecture plus rapprochée de 6 guides : ceux de Thomas Martyr (1788, 1790 & 1794), Heinrich August Ottokar Reichard (1793 & 1802) et Johann Gottfried Ebel (1793, 1805, 1810-11 & 1817-18) pour la fin du XVIIIe siècle et le tournant du XIXe, et ceux de John Murray (1838 & 1886), Adolphe Joanne (1841, 1865, 1874, 1882 & 1908) et Karl Baedeker (1844, 1852, 1859, 1869, 1876, 1883, 1893, 1901 & 1913) pour le XIXe et la Belle Epoque. Le second axe de cette recherche est une réflexion sur les manières de mettre en scène l'espace dans un texte. En étudiant les itinéraires de voyage en Suisse (mais jusqu'au début du XXe siècle, « la Suisse »est pour les guides de voyage indifféremment un pays et une région supranationale : «les Alpes »), quatre types de mises en forme ont pu être identifiés : le voyage en boucle (linéaire, il part d'un point A pour y revenir), le voyage en marguerite (linéaire avec excursions), le voyage éclaté de l'ordre alphabétique, et enfin le voyage par «routes », fragments d'espace que l'on combine comme les pièces d'un puzzle, créant son chemin au fur et à mesure de sa progression. Ce faisant, on peut affirmer que les guides de voyage modernes (dont la forme se fixe dans les années 1830-1840 avec les premiers Murray, Baedeker et Joanne) se sont construits -malgré tout ce que l'on a pu dire sur la normativité prescriptive du tourisme -autour d'une liberté de plus en plus grande accordée aux voyageurs. Chacune de ces formes et chacun de ces types ayant une histoire et des conditions de possibilités, c'est en s'appuyant sur celles-ci que l'on peut mieux comprendre non seulement l'évolution du voyage et de ses pratiques, mais aussi la constitution de la forme littéraire qui l'a accompagné et permis. Ce faisant, des jalons pour une histoire culturelle du tourisme ont aussi été posés, histoire culturelle que j'appelle maintenant de mes voeux : il est quand même surprenant que, dans le pays de tourisme qu'est la Suisse, quand on s'est jusqu'à présent attaché à l'histoire du tourisme, on n'ait parlé qu'économie, société, infrastructures, loisirs ou santé, voire, plus récemment, écologie et bien-être. Redonner son creuset culturel à ce phénomène, c'est aussi retrouver une part du nôtre, car ces mémoires s'entremêlent indissociablement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines portions des agglomérations (poches de pauvreté de centre-ville, couronnes suburbaines dégradées, espaces périurbains sans aménité), un cumul entre des inégalités sociales (pauvreté, chômage, etc.) et environnementales (exposition au bruit, aux risques industriels, etc.) peut être observé. La persistance de ces inégalités croisées dans le temps indique une tendance de fond : la capacité d'accéder à un cadre de vie de qualité n'est pas équitablement partagée parmi les individus. Ce constat interroge : comment se créent ces inégalités ? Comment infléchir cette tendance et faire la ville plus juste ?¦Apporter des réponses à cette problématique nécessite d'identifier les facteurs de causalités qui entrent en jeu dans le système de (re)production des inégalités urbaines. Le fonctionnement des marchés foncier et immobilier, la « tyrannie des petites décisions » et les politiques publiques à incidence spatiale sont principalement impliqués. Ces dernières, agissant sur tous les éléments du système, sont placées au coeur de ce travail. On va ainsi s'intéresser précisément à la manière dont les collectivités publiques pilotent la production de la ville contemporaine, en portant l'attention sur la maîtrise publique d'ouvrage (MPO) des grands projets urbains.¦Poser la question de la justice dans la fabrique de la ville implique également de questionner les référentiels normatifs de l'action publique : à quelle conception de la justice celle-ci doit- elle obéir? Quatre perspectives (radicale, substantialiste, procédurale et intégrative) sont caractérisées, chacune se traduisant par des principes d'action différenciés. Une méthodologie hybride - empruntant à la sociologie des organisations et à l'analyse des politiques publiques - vient clore le volet théorique, proposant par un détour métaphorique d'appréhender le projet urbain comme une pièce de théâtre dont le déroulement dépend du jeu d'acteurs.¦Cette méthodologie est utilisée dans le volet empirique de la recherche, qui consiste en une analyse de la MPO d'un projet urbain en cours dans la première couronne de l'agglomération lyonnaise : le Carré de Soie. Trois grands objectifs sont poursuivis : descriptif (reconstruire le scénario), analytique (évaluer la nature de la pièce : conte de fée, tragédie ou match d'improvisation ?) et prescriptif (tirer la morale de l'histoire). La description de la MPO montre le déploiement successif de quatre stratégies de pilotage, dont les implications sur les temporalités, le contenu du projet (programmes, morphologies) et les financements publics vont être déterminantes. Sur la base de l'analyse, plusieurs recommandations peuvent être formulées - importance de l'anticipation et de l'articulation entre planification et stratégie foncière notamment - pour permettre à la sphère publique de dominer le jeu et d'assurer la production de justice par le projet urbain (réalisation puis entretien des équipements et espaces publics, financement de logements de qualité à destination d'un large éventail de populations, etc.). Plus généralement, un décalage problématique peut être souligné entre les territoires stratégiques pour le développement de l'agglomération et les capacités de portage limitées des communes concernées. Ce déficit plaide pour le renforcement des capacités d'investissement de la structure intercommunale.¦La seule logique du marché (foncier, immobilier) mène à la polarisation sociale et à la production d'inégalités urbaines. Faire la ville juste nécessite une forte volonté des collectivités publiques, laquelle doit se traduire aussi bien dans l'ambition affichée - une juste hiérarchisation des priorités dans le développement urbain - que dans son opérationnalisation - une juste maîtrise publique d'ouvrage des projets urbains.¦Inner-city neighborhoods, poor outskirts, and peri-urban spaces with no amenities usually suffer from social and environmental inequalities, such as poverty, unemployment, and exposure to noise and industrial hazards. The observed persistence of these inequalities over time points to an underlying trend - namely, that access to proper living conditions is fundamentally unequal, thus eliciting the question of how such inequalities are effected and how this trend can be reversed so as to build a more equitable city.¦Providing answers to such questions requires that the causal factors at play within the system of (re)production of urban inequalities be identified. Real estate markets, "micromotives and macrobehavior", and public policies that bear on space are mostly involved. The latter are central in that they act on all the elements of the system. This thesis therefore focuses on the way public authorities shape the production of contemporary cities, by studying the public project ownership of major urban projects.¦The study of justice within the urban fabric also implies that the normative frames of reference of public action be questioned: what conception of justice should public action refer to? This thesis examines four perspectives (radical, substantialist, procedural, and integrative) each of which results in different principles of action. This theoretical part is concluded by a hybrid methodology that draws from sociology of organizations and public policy analysis and that suggests that the urban project may be understood as a play, whose outcome hinges on the actors' acting.¦This methodology is applied to the empirical analysis of the public project ownership of an ongoing urban project in the Lyon first-ring suburbs: the Carré de Soie. Three main objectives are pursued: descriptive (reconstructing the scenario), analytical (assessing the nature of the play - fairy tale, tragedy or improvisation match), and prescriptive (drawing the moral of the story). The description of the public project ownership shows the successive deployment of four control strategies, whose implications on deadlines, project content (programs, morphologies), and public funding are significant. Building on the analysis, several recommendations can be made to allow the public sphere to control the process and ensure the urban project produces equity (most notably, anticipation and articulation of planning and real- estate strategy, as well as provision and maintenance of equipment and public spaces, funding of quality housing for a wide range of populations, etc.). More generally, a gap can be highlighted between those territories that are strategic to the development of the agglomeration and the limited resources of the municipalities involved. This deficit calls for strengthening the investment abilities of the intermunicipal structure.¦By itself, the real-estate market logic brings about social polarization and urban inequalities. Building an equitable city requires a strong will on the part of public authorities, a will that must be reflected both in the stated ambition - setting priorities of urban development equitably - and in its implementation managing urban public projects fairly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le travail présenté est basé sur l'analyse systématique des 145'157 fragments de céramique émanant de 2137 ensembles recueillis entre 1976 et 2003 lors de la fouille de la cathédrale Saint-Pierre. Datés entre le Ier millénaire av. J-C. et le XIXe siècle, ils témoignent de l'ampleur et de la richesse des activités menées au sein de ce site phare de la ville de Genève. Les particularités observées pour les six premiers horizons reconnus, qui couvrent une période comprise entre le Ier millénaire av. J.-C. et 40 apr. J.-C., liées aux structures a priori énigmatiques mises en évidence lors de la fouille, ont orienté le champ d'étude vers une compréhension fine du mobilier recueilli dans ces strates anciennes. Ainsi cadrée, l'étude s'est concentrée sur 237 complexes céramiques ayant livré 23'129 fragments. La corrélation stratigraphique menée sur les 8000 m2 de terrain fouillé a permis de porter l'analyse sur la répartition spatiale du corpus considéré. Développée également sur le plan diachronique, cette démarche a largement contribué à la définition des activités menées sur le site. Ainsi, la concentration de fragments de panses d'amphore et de vaisselle de table importée de Campanie au pied d'un tertre mis en évidence sous le choeur de la cathédrale a conduit à reconnaître l'existence d'un banquet funéraire témoignant de l'ensevelissement sous tumulus d'un aristocrate allobroge décédé entre 120 et 70 av. J.-C. Réparties sur la totalité de la surface occupée par la nef de la cathédrale et des rues la flanquant, les quelques 1024 coupes à boire de La Tène finale mises au jour ont quant à elles permis d'identifier les surfaces de gravier qu'elles scellaient comme une aire de rassemblement ayant abrité des banquets tenus périodiquement. Le maintien de ces activités rituelles et collectives jusqu'au milieu du Ier siècle de notre ère conclut l'analyse diachronique. La mise en perspective historique des données recueillies sur le terrain souligne l'importance de l'antique oppidum extremum des Allobroges, dont le sort fut en 58 av. J.-C. à l'origine de la Guerre des Gaules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des représentations contradictoires coexistent aujourd'hui au sein de l'école concernant la place à octroyer aux émotions et aux expériences personnelles des élèves. Cette tension est ravivée par l'importance accordée à ce qu'on appelle l'éducation en vue du développement durable (EDD) qui cherche à fournir aux élèves des outils pour comprendre et se situer activement dans les grands défis que connaissent les sociétés actuelles. Les questions évoquées dans le cadre de ces enseignements relèvent de différents domaines de connaissances (sciences sociales et sciences naturelles, éthique, philosophie) et amènent à l'élaboration de compétences - comme celles de participer à des prises de décision collectives - ou le développement de valeurs telles que la responsabilité et le partage. Ces compétences à développer impliquent souvent des activités pédagogiques dans lesquelles les élèves sont amenés à évoquer leurs expériences personnelles et leurs propres opinions et émotions. Dans le cadre d'une approche sociohistorique du développement et de l'apprentissage, nous prendrons comme point de départ l'idée selon laquelle les émotions consistent en un ensemble de processus historiquement et culturellement situés et médiatisés, qui tout comme la pensée, passent d'un plan interpsychique à un plan intrapsychique (Vygotsky, 1987/1930). Dans la continuité des travaux de Vygotski nous examinerons le processus de « socialisation » des émotions au sein d'interactions didactiques, et analyserons dans quelle mesure ce processus est inséré dans la dynamique de construction de connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce guide, unique en son genre, est appelé à rendre les plus grands services à tous ceux qui souhaitent s'initier à la lecture historico-critique du Nouveau Testament ou approfondir son étude. Tout ce qu'il faut savoir (méthode, analyse, contexte des différents livres, etc...) s'y trouve. L'ouvrage comprend 5 parties qui peuvent se lire chacune indépendamment les unes des autres. Au début figure une introduction à la méthode des sciences bibliques en Nouveau Testament aujourd'hui. Puis, l'univers du christianisme primitif est largement présenté. Dans la troisième partie, un survol des contenus de chacun des écrits du Nouveau Testament est proposé, ainsi que les problèmes théologiques et historiques que ceux-ci soulèvent. Enfin, une présentation de l'activité et de la prédication de Jésus de Nazareth est développée sur fond d'une histoire du christianisme primitif. L'édition allemande de ce livre a déjà fait l'objet de douze rééditions, systématiquement réactualisées par les auteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question centrale de ce travail est celle de la relation entre finitude environnementale et liberté individuelle. Par finitude environnementale il faut entendre l'ensemble des contraintes écologiques variées qui posent des limites à l'action humaine. Celles-ci sont de deux types généraux : les limites de disponibilité des ressources naturelles et: les limites de charge des écosystèmes et des grands cycles biogéochimiques globaux (chapitre 1). La thèse défendue ici est que les conceptions libertariennes et libérales de la liberté sont en conflit avec la nécessité de prendre en compte de telles limites et qu'une approche néo-républicaine est mieux à même de répondre à ces enjeux écologiques. Les théories libertariennes, de droite comme de gauche, sont inadaptées à la prise en compte de la finitude des ressources naturelles car elles maintiennent un droit à l'appropriation illimitée de ces dernières par les individus. Ce point est en contradiction avec le caractère systémique de la rareté et avec l'absence de substitut pour certaines ressources indispensables à la poursuite d'une vie décente (chapitres 2 et 3). La théorie libérale de la neutralité, appuyée par le principe du tort (harm principle), est quant à elle inadaptée à la prise en compte des problèmes environnementaux globaux comme le changement climatique. Les mécanismes causaux menant à la création de dommages environnementaux sont en effet indirects et diffus, ce qui empêche l'assignation de responsabilités au niveau individuel. La justification de politiques environnementales contraignantes s'en trouve donc mise en péril (chapitre 4). Ces difficultés proviennent avant tout de deux traits caractéristiques de ces doctrines : leur ontologie sociale atomiste et leur conception de la liberté comme liberté de choix. Le néo-républicanisme de Philip Pettit permet de répondre à ces deux problèmes grâce à son ontologie holiste et à sa conception de la liberté comme non- domination. Cette théorie permet donc à la fois de proposer une conception de la liberté compatible avec la finitude environnementale et de justifier des politiques environnementales exigeantes, sans que le sacrifice en termes de liberté n'apparaisse trop important (chapitre 5). - The centrai issue of this work is that of the relationship between environmental finiteness and individual liberty. By environmental finiteness one should understand the set of diverse ecological constraints that limit human action. These limits are of two general kinds: on the one hand the availability of natural resources, and on the other hand the carrying capacity of ecosystems and biogeochemical cycles (chapter 1}. The thesis defended here is that libertarian and liberal conceptions of liberty conflict with the necessity to take such limits into account, and that a neo-republican approach is best suited to address environmental issues. Libertarian theories, right-wing as well as left-wing, are in particular not able to take resource scarcity into account because they argue for an unlimited right of individuals to appropriate those resources. This point is in contradiction with the systemic nature of scarcity and with the absence of substitutes for some essential resources (chapters 2 and 3). The liberal doctrine of neutrality, as associated with the harm principle, is unsuitable when addressing global environmental issues like climate change. Causal mechanisms leading to environmental harm are indirect and diffuse, which prevents the assignation of individual responsibilities. This makes the justification of coercive environmental policies difficult (chapter 4). These difficulties stem above all from two characteristic features of libertarian and liberal doctrines: their atomistic social ontology and their conception of freedom as liberty of choice. Philip Pettit's neo- republicanism on the other hand is able to address these problems thanks to its holist social ontology and its conception of liberty as non-domination. This doctrine offers a conception of liberty compatible with environmental limits and theoretical resources able to justify demanding environmental policies without sacrificing too much in terms of liberty (chapter 5).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dès le milieu des années 1920 et le développement des premiers prototypes fonctionnels, la télévision se fait objet d'exposition. La nouvelle technologie est montrée à des foires industrielles et dans des grands magasins, à des expositions universelles et nationales : exposée, la télévision devient un mass media avant même qu'elle ne diffuse des émissions régulières. En étudiant les présentations publiques de la télévision en Allemagne, en Grande-Bretagne et aux Etats-Unis entre 1928 - date de l'ouverture des premières expositions annuelles dans les trois pays - et 1939 - moment de l'interruption de celles-ci suite à l'éclatement de la Deuxième Guerre mondiale - Television before TV montre que les lieux où le médium rencontre son premier public constituent les mêmes espaces qui, rétrospectivement, permettent de comprendre son avènement. Cette recherche propose ainsi de nouvelles pistes pour l'histoire des médias en interrogeant la définition de la télévision en tant que médium du privé. Elle rappelle l'importance historique de l'espace public pour la « vision à distance » et, dépassant la perspective nationale, reconstitue les différences et similarités techniques, médiatiques et institutionnelles de la télévision allemande, américaine et britannique dans l'entre-deux-guerres. Développée dans un contexte qui est simultanément nationaliste et nourri d'échanges et de compétitions internationales, la télévision sert de comparatif dans les rivalités entre pays, mais stimule également la circulation de savoir-faire et de personnes. Sa forte valeur symbolique comme emblème du progrès scientifique et, dans le cas allemand, comme preuve de la modernité du régime national-socialiste se traduit dans les salles d'expositions par des scénographies souvent innovatrices, dont les photographies et descriptions se propagent au-delà de la presse locale. Au centre d'un réseau discursif et représentationnel, les expositions jouent alors un rôle essentiel pour la construction sociale, politique et culturelle de la télévision. Remplaçant l'analyse de textes audiovisuels par l'étude de la machine exposée, ma recherche reformule la question bazinienne de qu'est-ce que la télévision ? pour demander où le médium se situe-t-il ? Cette prémisse méthodologique permet de contourner une évaluation qualitative de la technologie qui déplorerait ses multiples imperfections, et éclaire d'un nouveau jour des dispositifs télévisuels qui, même sans programme, intègrent un univers voué à la culture de consommation et du loisir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Les recherches sur l'historiographie de l'Église primitive se sont multipliées depuis des temps récents, en France comme à l'étranger, et de grands projets d'édition et de traduction arrivent actuellement à leur terme. Il a donc semblé utile de faire le point sur les travaux en cours, qu'ils aient été entrepris par des historiens de l'Antiquité tardive ou par des philologues, latinistes, hellénistes et orientalistes, par des théologiens ou par des exégètes, et d'engager une réflexion sur la manière dont s'écrivait l'histoire de l'Église et dont l'Église pensait ses origines et sa propre histoire. C'est l'ensemble de leurs travaux qui se trouve présenté dans ce volume, dont la problématique correspond à une actualité à la fois médiatique, historique et religieuse, puisque se célèbre cette année le deuxième millénaire de l'ère chrétienne - tant il est vrai que toute réflexion sur le passé est aussi (et avant tout ?) une réflexion sur le présent et sur l'avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet ouvrage en propose une image différente des vallées latérales du Valais qui aux XVIIIe et XIXe siècles participent aux grands mouvements qui agitent l'Europe et parfois même les anticipent. Les grandes questions religieuses, politiques et culturelles - rôle de l'Église, éducation, libertés, droits individuels et collectifs... - passionnent et divisent les communautés locales. L'étude révèle enfin un aspect insoupçonné : dans les luttes pour le pouvoir et pour des valeurs sociales et culturelles, les attitudes et les comportements sexuels jouent un rôle central et jusqu'à présent négligé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En Suisse, près de 5300 nouveaux cas de cancer du sein chez la femme et 30 à 40 chez l'homme sont diagnostiqués chaque année. Une femme sur huit sera touchée par la maladie au cours de sa vie (1-2). Malgré l'avancée de la médecine dans le traitement de cette maladie, il arrive encore que des situations dramatiques se présentent suite à une tumeur localement avancée ou récidivante. Une plaie chronique douloureuse et nécrotique parfois surinfectée ne répondant pas aux traitements de chimio- et de radiothérapie nécessite alors d'effectuer une résection large de la zone atteinte afin d'améliorer la qualité de vie de ces patients. Cette opération entraîne un vaste défect de la paroi thoracique antérieure qui demande une chirurgie de couverture complexe. Le lambeau épiploïque proposé par Kiricuta en 1963 est encore utilisé de nos jours pour ce genre d'intervention (3). L'évolution des techniques chirurgicales fait que nous disposons actuellement d'autres lambeaux myocutanés performants pour de telles situations oncologiques. Ce travail s'intéresse à l'évaluation de l'épiplooplastie proposée il y a maintenant près de 50 ans, afin de s'interroger sur la place qu'elle occupe aujourd'hui parmi ces autres techniques. Objectifs : Comprendre la technique du lambeau de Kiricuta et évaluer sa place parmi les techniques de reconstruction dans la chirurgie du cancer du sein localement avancé ou récidivant. Méthodes : Une revue de la littérature des articles s'intéressant au lambeau de Kiricuta depuis 1963 a permis d'évaluer ses qualités et ses inconvénients. Cette technique a été illustrée par l'analyse rétrospective des dossiers de 4 patients ayant bénéficié d'une reconstruction à partir du grand épiploon au CHUV suite à un cancer du sein récidivant ou localement avancé. La présentation des autres techniques de reconstructions de la paroi thoracique antérieure s'est également basée sur la récolte d'articles d'études comparant ces différentes opérations. Résultats: Le grand épiploon est un organe doté de capacités étonnantes, immunologiques et angiogéniques. Sa taille souvent généreuse convient à de grands défects de la paroi thoracique, particulièrement lors d'atteinte bilatérale ou de la région axillaire. Son utilisation ne convient toutefois pas lors d'exérèse de plus de 3 côtes par manque de stabilité de la cage thoracique. Apprécié en milieu infecté et/ou radique, il convient aux situations où les lambeaux myocutanés sont inadéquats. En effet, comme sa taille n'est pas prédictible et que l'opération demande souvent une laparotomie, cette technique est envisagée en seconde intention ou suivant des situations particulières. Conclusion : L'amélioration des symptômes locaux lors de cancer du sein localement avancé ou récidivant a pu être obtenue en excisant la lésion et en la recouvrant par le lambeau de Kiricuta. Le bénéfice sur la qualité de vie ainsi apporté à ces patients fait de l'épiplooplastie un choix à considérer dans le traitement chirurgical du cancer du sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le μ-calcul est une extension de la logique modale par des opérateurs de point fixe. Dans ce travail nous étudions la complexité de certains fragments de cette logique selon deux points de vue, différents mais étroitement liés: l'un syntaxique (ou combinatoire) et l'autre topologique. Du point de vue syn¬taxique, les propriétés définissables dans ce formalisme sont classifiées selon la complexité combinatoire des formules de cette logique, c'est-à-dire selon le nombre d'alternances des opérateurs de point fixe. Comparer deux ensembles de modèles revient ainsi à comparer la complexité syntaxique des formules as¬sociées. Du point de vue topologique, les propriétés définissables dans cette logique sont comparées à l'aide de réductions continues ou selon leurs positions dans la hiérarchie de Borel ou dans celle projective. Dans la première partie de ce travail nous adoptons le point de vue syntax¬ique afin d'étudier le comportement du μ-calcul sur des classes restreintes de modèles. En particulier nous montrons que: (1) sur la classe des modèles symétriques et transitifs le μ-calcul est aussi expressif que la logique modale; (2) sur la classe des modèles transitifs, toute propriété définissable par une formule du μ-calcul est définissable par une formule sans alternance de points fixes, (3) sur la classe des modèles réflexifs, il y a pour tout η une propriété qui ne peut être définie que par une formule du μ-calcul ayant au moins η alternances de points fixes, (4) sur la classe des modèles bien fondés et transitifs le μ-calcul est aussi expressif que la logique modale. Le fait que le μ-calcul soit aussi expressif que la logique modale sur la classe des modèles bien fondés et transitifs est bien connu. Ce résultat est en ef¬fet la conséquence d'un théorème de point fixe prouvé indépendamment par De Jongh et Sambin au milieu des années 70. La preuve que nous donnons de l'effondrement de l'expressivité du μ-calcul sur cette classe de modèles est néanmoins indépendante de ce résultat. Par la suite, nous étendons le langage du μ-calcul en permettant aux opérateurs de point fixe de lier des occurrences négatives de variables libres. En montrant alors que ce formalisme est aussi ex¬pressif que le fragment modal, nous sommes en mesure de fournir une nouvelle preuve du théorème d'unicité des point fixes de Bernardi, De Jongh et Sambin et une preuve constructive du théorème d'existence de De Jongh et Sambin. RÉSUMÉ Pour ce qui concerne les modèles transitifs, du point de vue topologique cette fois, nous prouvons que la logique modale correspond au fragment borélien du μ-calcul sur cette classe des systèmes de transition. Autrement dit, nous vérifions que toute propriété définissable des modèles transitifs qui, du point de vue topologique, est une propriété borélienne, est nécessairement une propriété modale, et inversement. Cette caractérisation du fragment modal découle du fait que nous sommes en mesure de montrer que, modulo EF-bisimulation, un ensemble d'arbres est définissable dans la logique temporelle Ε F si et seulement il est borélien. Puisqu'il est possible de montrer que ces deux propriétés coïncident avec une caractérisation effective de la définissabilité dans la logique Ε F dans le cas des arbres à branchement fini donnée par Bojanczyk et Idziaszek [24], nous obtenons comme corollaire leur décidabilité. Dans une deuxième partie, nous étudions la complexité topologique d'un sous-fragment du fragment sans alternance de points fixes du μ-calcul. Nous montrons qu'un ensemble d'arbres est définissable par une formule de ce frag¬ment ayant au moins η alternances si et seulement si cette propriété se trouve au moins au n-ième niveau de la hiérarchie de Borel. Autrement dit, nous vérifions que pour ce fragment du μ-calcul, les points de vue topologique et combina- toire coïncident. De plus, nous décrivons une procédure effective capable de calculer pour toute propriété définissable dans ce langage sa position dans la hiérarchie de Borel, et donc le nombre d'alternances de points fixes nécessaires à la définir. Nous nous intéressons ensuite à la classification des ensembles d'arbres par réduction continue, et donnons une description effective de l'ordre de Wadge de la classe des ensembles d'arbres définissables dans le formalisme considéré. En particulier, la hiérarchie que nous obtenons a une hauteur (ωω)ω. Nous complétons ces résultats en décrivant un algorithme permettant de calculer la position dans cette hiérarchie de toute propriété définissable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une superbe fresque des quêtes spirituelles de l'humanité. Qui sont ces maîtres de vie, ces sages, ces mystiques qui ont façonné l'aventure spirituelle de l'humanité ? Quels sont les grands textes qu'ils ont écrits ou suscités, quelles sont les sources de leur inspiration ? Pour la première fois en un seul volume les trésors de sagesses de l'histoire de l'humanité : 100 figures spirituelles (Du Bouddha à Thérèse d'Avila, de Sénèque à Gandhi, d'Ibn 'Arabi à Simone Weil, des sages égyptiens aux lamas tibétains contemporains, des maîtres du hassidisme aux gurus de l'Inde moderne...), 200 textes de sagesse du monde entier, 100 illustrations.