424 resultados para cadre d’analyse durable


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contact aureoles provide an excellent geologic environment to study the mechanisms of metamorphic reactions in a natural system. The Torres del Paine (TP) intrusion is one of the most spectacular natural laboratories because of its excellent outcrop conditions. It formed in a period from 12.59 to 12.43 Ma and consists of three large granite and four smaller mafic batches. The oldest granite is on top, the youngest at the bottom of the granitic complex, and the granites overly the mafic laccolith. The TP intruded at a depth of 2-3 km into regional metamorphic anchizone to greenschist facies pelites, sandstones, and conglomerates of the Cerro Toro and Punta Barrosa formations. It formed a thin contact aureole of 150-400 m width. This thesis focuses on the reaction kinetics of the mineral cordierite in the contact aureole using quantitative textural analysis methods. First cordierite was formed from chlorite break¬down (zone I, ca. 480 °C, 750 bar). The second cordierite forming reaction was the muscovite break-down, which is accompanied by a modal decrease in biotite and the appearance of k- feldspar (zone II, 540-550 °C, 750 bar). Crystal sizes of the roundish, poikiloblastic cordierites were determined from microscope thin section images by manually marking each crystal. Images were then automatically processed with Matlab. The correction for the intersection probability of each crystal radius yields the crystal size distribution in the rock. Samples from zone I below the laccolith have the largest crystals (0.09 mm). Cordierites from zone II are smaller, with a maximum crystal radius of 0.057 mm. Rocks from zone II have a larger number of small cordierite crystals than rocks from zone I. A combination of these quantitative analysis with numerical modeling of nucleation and growth, is used to infer nucleation and growth parameters which are responsible for the observed mineral textures. For this, the temperature-time paths of the samples need to be known. The thermal history is complex because the main body of the intrusion was formed by several intrusive batches. The emplacement mechanism and duration of each batch can influence the thermal structure in the aureole. A possible subdivision of batches in smaller increments, so called pulses, will focus heat at the side of the intrusion. Focusing all pulses on one side increases the contact aureole size on that side, but decreases it on the other side. It forms a strongly asymmetric contact aureole. Detailed modeling shows that the relative thicknesses of the TP contact aureole above and below the intrusion (150 and 400 m) are best explained by a rapid emplacement of at least the oldest granite batch. Nevertheless, temperatures are significantly too low in all models, compared to observed mineral assemblages in the hornfelses. Hence, an other important thermal mechanisms needs to take place in the host rock. Clastic minerals in the immature sediments outside the contact aureole are hydrated due to small amounts of expelled fluids during contact metamorphism. This leads to a temperature increase of up to 50 °C. The origin of fluids can be traced by stable isotopes. Whole rock stable isotope data (6D and δ180) and chlorine concentrations in biotite document that the TP intrusion induced only very small amounts of fluid flow. Oxygen whole rock data show δ180 values between 9.0 and 10.0 %o within the first 5 m of the contact. Values increase to 13.0 - 15.0 %o further away from the intrusion. Whole rock 6D values display a more complex zoning. First, host rock values (-90 to -70 %o) smoothly decrease towards the contact by ca. 20 %o, up to a distance of ca. 150 m. This is followed by an increase of ca. 20 %o within the innermost 150 m of the aureole (-97.0 to -78 %o at the contact). The initial decrease in 6D values is interpreted to be due to Rayleigh fractionation accompanying the dehydration reactions forming cordierite, while the final increase reflects infiltration of water-rich fluids from the intrusion. An over-estimate on the quantity and the corresponding thermal effect yields a temperature increase of less than 30 °C. This suggests that fluid flow might have contributed only for a small amount to the thermal evolution of the system. A combination of the numerical growth model with the thermal model, including the hydration reaction enthalpies but neglecting fluid flow and incremental growth, can be used to numerically reproduce the observed cordierite textures in the contact aureole. This yields kinetic parameters which indicate fast cordierite crystallization before the thermal peak in the inner aureole, and continued reaction after the thermal peak in the outermost aureole. Only small temperature dependencies of the kinetic parameters seem to be needed to explain the obtained crystal size data. - Les auréoles de contact offrent un cadre géologique privilégié pour l'étude des mécanismes de réactions métamorphiques associés à la mise en place de magmas dans la croûte terrestre. Par ses conditions d'affleurements excellentes, l'intrusion de Torres del Paine représente un site exceptionnel pour améliorer nos connaissances de ces processus. La formation de cette intrusion composée de trois injections granitiques principales et de quatre injections mafiques de volume inférieur couvre une période allant de 12.50 à 12.43 Ma. Le plus vieux granite forme la partie sommitale de l'intrusion alors que l'injection la plus jeune s'observe à la base du complexe granitique; les granites recouvrent la partie mafique du laccolite. L'intrusion du Torres del Paine s'est mise en place a 2-3 km de profondeur dans un encaissant métamorphique. Cet encaissant est caractérisé par un métamorphisme régional de faciès anchizonal à schiste vert et est composé de pélites, de grès, et des conglomérats des formations du Cerro Toro et Punta Barrosa. La mise en place des différentes injections granitiques a généré une auréole de contact de 150-400 m d'épaisseur autour de l'intrusion. Cette thèse se concentre sur la cinétique de réaction associée à la formation de la cordiérite dans les auréoles de contact en utilisant des méthodes quantitatives d'analyses de texture. On observe plusieurs générations de cordiérite dans l'auréole de contact. La première cordiérite est formée par la décomposition de la chlorite (zone I, environ 480 °C, 750 bar), alors qu'une seconde génération de cordiérite est associée à la décomposition de la muscovite, laquelle est accompagnée par une diminution modale de la teneur en biotite et l'apparition de feldspath potassique (zone II, 540-550 °C, 750 bar). Les tailles des cristaux de cordiérites arrondies et blastic ont été déterminées en utilisant des images digitalisées des lames minces et en marquant individuellement chaque cristal. Les images sont ensuite traitées automatiquement à l'aide du programme Matlab. La correction de la probabilité d'intersection en fonction du rayon des cristaux permet de déterminer la distribution de la taille des cristaux dans la roche. Les échantillons de la zone I, en dessous du lacolite, sont caractérisés par de relativement grands cristaux (0.09 mm). Les cristaux de cordiérite de la zone II sont plus petits, avec un rayon maximal de 0.057 mm. Les roches de la zone II présentent un plus grand nombre de petits cristaux de cordiérite que les roches de la zone I. Une combinaison de ces analyses quantitatives avec un modèle numérique de nucléation et croissance a été utilisée pour déduire les paramètres de nucléation et croissance contrôlant les différentes textures minérales observées. Pour développer le modèle de nucléation et de croissance, il est nécessaire de connaître le chemin température - temps des échantillons. L'histoire thermique est complexe parce que l'intrusion est produite par plusieurs injections successives. En effet, le mécanisme d'emplace¬ment et la durée de chaque injection peuvent influencer la structure thermique dans l'auréole. Une subdivision des injections en plus petits incréments, appelés puises, permet de concentrer la chaleur dans les bords de l'intrusion. Une mise en place préférentielle de ces puises sur un côté de l'intrusion modifie l'apport thermique et influence la taille de l'auréole de contact produite, auréole qui devient asymétrique. Dans le cas de la première injection de granite, une modélisation détaillée montre que l'épaisseur relative de l'auréole de contact de Torres del Paine au-dessus et en dessous de l'intrusion (150 et 400 m) est mieux expliquée par un emplacement rapide du granite. Néanmoins, les températures calculées dans l'auréole de con¬tact sont trop basses pour que les modèles thermiques soient cohérants par rapport à la taille de cette auréole. Ainsi, un autre mecanisme exothermique est nécessaire pour permettre à la roche encais¬sante de produire les assemblages observés. L'observation des roches encaissantes entourant les granites montre que les minéraux clastiques dans les sédiments immatures au-dehors de l'auréole sont hydratés suite à la petite quantité de fluide expulsée durant le métamorphisme de contact et/ou la mise en place des granites. Les réactions d'hydratation peuvent permettre une augmentation de la température jusqu'à 50 °C. Afin de déterminer l'origine des fluides, une étude isotopique de roches de l'auréole de contact a été entreprise. Les isotopes stables d'oxygène et d'hydrogène sur la roche totale ainsi que la concentration en chlore dans la biotite indiquent que la mise en place des granites du Torres del Paine n'induit qu'une circulation de fluide limitée. Les données d'oxygène sur roche totale montrent des valeurs δ180 entre 9.0 et 10.0%o au sein des cinq premiers mètres du contact. Les valeurs augmentent jusqu'à 13.0 - 15.0 plus on s'éloigne de l'intrusion. Les valeurs 5D sur roche totale montrent une zonation plus complexe. Les valeurs de la roche encaissante (-90 à -70%o) diminuent progressivement d'environ 20%o depuis l'extérieur de l'auréole jusqu'à une distance d'environ 150 m du granite. Cette diminution est suivie par une augmentation d'environ 20%o au sein des 150 mètres les plus proches du contact (-97.0 à -78%o au contact). La diminution initiale des valeurs de 6D est interprétée comme la conséquence du fractionnement de Rayleigh qui accompagne les réactions de déshydratation formant la cordiérite, alors que l'augmentation finale reflète l'infiltration de fluide riche en eau venant de l'intrusion. A partir de ces résultats, le volume du fluide issu du granite ainsi que son effet thermique a pu être estimé. Ces résultats montrent que l'augmentation de température associée à ces fluides est limitée à un maximum de 30 °C. La contribution de ces fluides dans le bilan thermique est donc faible. Ces différents résultats nous ont permis de créer un modèle thermique associé à la for¬mation de l'auréole de contact qui intègre la mise en place rapide du granite et les réactions d'hydratation lors du métamorphisme. L'intégration de ce modèle thermique dans le modèle numérique de croissance minérale nous permet de calculer les textures des cordiérites. Cepen¬dant, ce modèle est dépendant de la vitesse de croissance et de nucléation de ces cordiérites. Nous avons obtenu ces paramètres en comparant les textures prédites par le modèle et les textures observées dans les roches de l'auréole de contact du Torres del Paine. Les paramètres cinétiques extraits du modèle optimisé indiquent une cristallisation rapide de la cordiérite avant le pic thermique dans la partie interne de l'auréole, et une réaction continue après le pic thermique dans la partie la plus externe de l'auréole. Seules de petites dépendances de température des paramètres de cinétique semblent être nécessaires pour expliquer les don¬nées obtenues sur la distribution des tailles de cristaux. Ces résultats apportent un éclairage nouveau sur la cinétique qui contrôle les réactions métamorphiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail vise à clarifier les résultats contradictoires de la littérature concernant les besoins des patients d'être informés et de participer à la prise de décision. La littérature insiste sur le contenu de l'information comme base de la prise de décision, bien qu'il existe des preuves que d'autres contenus sont importants pour les patients. La thèse essaie en outre d'identifier des possibilités de mieux répondre aux préférences d'information et de participation des patients. Les travaux ont porté en particulier sur les soins palliatifs. Une analyse de la littérature donne un aperçu sur les soins palliatifs, sur l'information des patients et sur leur participation à la prise de décisions thérapeutiques. Cette analyse résume les résultats d'études précédentes et propose un: modèle théorique d'information, de prise de décision et de relation entre ces deux domaines. Dans le cadre de ce travail, deux études empiriques ont utilisé des questionnaires écrits adressés à des personnes privées et à des professionnels de la santé, couvrant la Suisse et le Royaume Uni, pour identifier d'éventuelles différences entre ces deux pays. Les enquêtes ont été focalisées sur des patients souffrant de cancer du poumon. Les instruments utilisés pour ces études proviennent de la littérature afin de les rendre comparables. Le taux de réponse aux questionnaires était de 30-40%. La majorité des participants aux enquêtes estime que les patients devraient: - collaborer à la prise de décision quant à leur traitement - recevoir autant d'information que possible, positive aussi bien que négative - recevoir toutes les informations mentionnées dans le questionnaire (concernant la maladie, le diagnostic et les traitements), tenant compte de la diversité des priorités des patients - être soutenus par des professionnels de la santé, leur famille, leurs amis et/ou les personnes souffrant de la même maladie En plus, les participants aux enquêtes ont identifié divers contenus de l'information aux patients souffrant d'une maladie grave. Ces contenus comprennent entre autres: - L'aide à la prise de décision concernant le traitement - la possibilité de maintenir le contrôle de la situation - la construction d'une relation entre le patient et le soignant - l'encouragement à faire des projets d'avenir - l'influence de l'état émotionnel - l'aide à la compréhension de la maladie et de son impact - les sources potentielles d'états confusionnels et d'états anxieux La plupart des contenus proposés sont positifs. Les résultats suggèrent la coexistence possible de différents contenus à un moment donné ainsi que leur changement au cours du temps. Un modèle est ensuite développé et commenté pour présenter le diagnostic d'une maladie grave. Ce modèle est basé sur la littérature et intègre les résultats des études empiriques réalisées dans le cadre de ce travail. Ce travail analyse également les sources préférées d'information et de soutien, facteurs qui peuvent influencer ou faire obstacle aux préférences d'information et de participation. Les deux groupes de participants considèrent les médecins spécialistes comme la meilleure source d'information. En ce qui concerne le soutien, les points de vue divergent entre les personnes privées et les professionnels de la santé: généralement, les rôles de soutien semblent peu définis parmi les professionnels. Les barrières à l'information adéquate du patient apparaissent fréquemment liées aux caractéristiques des professionnels et aux problèmes d'organisation. Des progrès dans ce domaine contribueraient à améliorer les soins fournis aux patients. Finalement, les limites des études empiriques sont discutées. Celles-ci comprennent, entre autres, la représentativité restreinte des participants et les objections de certains groupes de participants à quelques détails des questionnaires. Summary The present thesis follows a call from the current body of literature to better understand patient needs for information and for participation in decision-making, as previous research findings had been contradictory. Information so far seems to have been considered essentially as a means to making treatment decisions, despite certain evidence that it may have a number of other values to patients. Furthermore, the thesis aims to identify ways to optimise meeting patient preferences for information and participation in treatment decisions. The current field of interest is palliative care. An extensive literature review depicts the background of current concepts of palliative care, patient information and patient involvement into treatment decisions. It also draws together results from previous studies and develops a theoretical model of information, decision-making, and the relationship between them. This is followed by two empirical studies collecting data from members of the general public and health care professionals by means of postal questionnaires. The professional study covers both Switzerland and the United Kingdom in order to identify possible differences between countries. Both studies focus on newly diagnosed lung cancer patients. The instruments used were taken from the literature to make them comparable. The response rate in both surveys was 30-40%, as expected -sufficient to allow stastical tests to be performed. A third study, addressed to lung cancer patients themselves, turned out to require too much time within the frame available. A majority of both study populations thought that patients should: - have a collaborative role in treatment-related decision-making -receive as much information as possible, good or bad - receive all types of information mentioned in the questionnaire (about illness, tests, and treatment), although priorities varied across the study populations - be supported by health professionals, family members, friends and/or others with the same illness Furthermore they identified various 'meanings' information may have to patients with a serious illness. These included: - being an aid in treatment-related decision-making - allowing control to be maintained over the situation - helping the patient-professional relationship to be constructed - allowing plans to be made - being positive for the patient's emotional state - helping the illness and its impact to be understood - being a source of anxiety - being a potential source of confusion to the patient Meanings were mostly positive. It was suggested that different meanings could co-exist at a given time and that they might change over time. A model of coping with the disclosure of a serious diagnosis is then developped. This model is based on existing models of coping with threatening events, as takeñ from the literature [ref. 77, 78], and integrates findings from the empirical studies. The thesis then analyses the remaining aspects apparent from the two surveys. These range from the identification of preferred information and support providers to factors influencing or impeding information and participation preferences. Specialist doctors were identified by both study populations as the best information providers whilst with regard to support provision views differed between the general public and health professionals. A need for better definition of supportive roles among health care workers seemed apparent. Barriers to information provision often seem related to health professional characteristics or organisational difficulties, and improvements in the latter field could well help optimising patient care. Finally, limitations of the studies are discussed, including questions of representativness of certain results and difficulties with or objections against questionnaire details by some groups of respondents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 1990 et la fin de la Guerre Froide, les Etats-Unis d'Amérique sont devenus la première puissance mondiale, animée par l'idéal de défendre les valeurs occidentale et de répandre la démocratie dans le monde. Or, entre des racines identitaires gréco-romaines empruntées à l'Europe, et les guerres menées au Moyen-Orient contre différents ennemis, la « mission » de l'Amérique suscite critiques et interrogations, et le conflit est autant culturel que militaire. L'Iliade d'Homère au contenu guerrier, érigée par la tradition littéraire en oeuvre fondatrice de l'Occident, offre aux penseurs américains de tous horizons un outil de réflexion propre à éclairer ce présent si inconfortable. A travers l'étude d'un corpus tripartite inédit, ce travail se propose de questionner le rôle d'une oeuvre symbolique de l'Antiquité grecque dans le monde d'aujourd'hui, et débouche sur une réflexion plus large touchant au sens contemporain des études classiques et à la transmission du savoir au sein de la culture populaire. Dans un premier temps, elle examine des ouvrages ou articles à vocation scientifique, mais publiés pour la plupart hors du cadre académique, qui théorisent et expriment les enjeux des guerres des cultures américaines (« culture wars ») divisant conservateurs et libéraux sur la mission véritable d'une éducation libérale. Ces ouvrages se servent également de l'Iliade comme d'un miroir où se reflète les conflits modernes, afin d'atténuer le trouble contemporain en juxtaposant passé et présent. Dans un deuxième temps sont abordés les médias journalistiques et informatiques, à l'aide des résultats obtenus lors de recherches poussées, effectuées dans les archives informatiques des journaux publiés dans les capitales et villes majeures des cinquante Etats américains. De fascinantes comparaisons entre la guerre de Troie et la guerre en Irak y sont notamment construites. Le discours sur l'actualité se développe par le recours à l'Antiquité, et en tire de nombreuses « leçons » destinées au gouvernement américain et à tous les meneurs de guerres. Et dans un troisième temps, deux romans de science-fiction, Ilium (2003) et sa suite Olympos (2005), de Dan Simmons, fournissent un fascinant complément littéraire au reste du corpus. Imprégnés par les culture wars, ils transposent l'Iliade dans un lointain futur et expriment sous une forme nouvelle toutes les interrogations brûlantes qui, aujourd'hui particulièrement, animent une Amérique troublée tant par ses guerres que par la remise en question de son identité occidentale. Par cette réunion de trois domaines dissemblables, ce travail pose aussi de nombreuses questions épistémologiques sur la circulation de l'information, la transformation des savoirs, le flou des frontières entre les genres, la révolution que représente Internet, et la fragmentation progressive de la bulle académique. Il propose également de nombreuses perspectives d'ouverture permettant de poursuivre cette recherche. Car la réception contemporaine de l'Iliade - et de l'Antiquité en général - est un domaine riche et dynamique, qui présente l'avantage - ou l'inconvénient, c'est selon - d'être toujours d'actualité. L'inconfort du présent ne devrait pas empêcher son étude, car les résultats sont extrêmement révélateurs de la véritable relation qu'entretiennent les hommes d'aujourd'hui - et non plus seulement les savants - avec leur passé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARYAstrocytes represent the largest cell population in the human brain. In addition to a well established role as metabolic support for neuronal activity, in the last years these cells have been found to accomplish other important and, sometimes, unexpected functions. The tight enwrapping of synapses by astrocytic processes and the predominant expression of glutamate uptake carriers in the astrocytic rather than neuronal plasma membranes brought to the definition of a critical involvement of astrocytes in the clearance of glutamate from synaptic junctions. Moreover, several publications showed that astrocytes are able to release chemical transmitters (gliotransmitters) suggesting their active implication in the control of synaptic functions. Among gliotransmitters, the best characterized is glutamate, which has been proposed to be released from astrocytes in a Ca2+ dependent manner via exocytosis of synaptic-like microvesicles.In my thesis I present results leading to substantial advancement of the understanding of the mechanisms by which astrocytes modulate synaptic activity in the hippocampus, notably at excitatory synapses on dentate granule cells. I show that tumor necrosis factor- alpha (TNFa), a molecule that is generally involved in immune system functions, critically controls astrocyte-to-synapse communication (gliotransmission) in the brain. With constitutive levels of TNFa present, activation of purinergic G protein-coupled receptors in astrocytes, called P2Y1 receptors, induces localized intracellular calcium ([Ca2+]j) elevation in astrocytic processes (measured by two-photon microscopy) followed by glutamate release and activation of pre-synaptic NMDA receptors resulting in synaptic potentiation. In preparations lacking TNFa, astrocytes respond with identical [Ca2+]i elevations but fail to induce neuromodulation. I find that TNFa specifically controls the glutamate release step of gliotransmission. Addition of very low (picomolar) TNFa concentrations to preparations lacking the cytokine, promptly reconstitutes both normal exocytosis in cultured astrocytes and gliotransmission in hippocampal slices. These data provide the first demonstration that gliotransmission and its synaptic effects are controlled not only by astrocyte [Ca2+]i elevations but also by permissive/homeostatic factors like TNFa.In addition, I find that higher and presumably pathological TNFa concentrations do not act just permissively but instead become direct and potent triggers of glutamate release from astrocytes, leading to a strong enhancement of excitatory synaptic activity. The TNFa action, like the one observed upon P2Y1R activation, is mediated by pre-synaptic NMDA receptors, but in this case the effect is long-lasting, and not reversible. Moreover, I report that a necessary molecular target for this action of TNFa is TNFR1, one of the two specific receptors for the cytokine, as I found that TNFa was unable to induce synaptic potentiation when applied in slices from TNFR1 knock-out (Tnfrlv") mice. I then created a double transgenic mouse model where TNFR1 is knocked out in all cells but can be re-expressed selectively in astrocytes and I report that activation of the receptors in these cells is sufficient to reestablish TNFa-dependent long-lasting potentiation of synaptic activity in the TNFR1 knock-out mice.I therefore discovered that TNFa is a primary molecule displaying both permissive and instructive roles on gliotransmission controlling synaptic functions. These reports might have profound implications for the understanding of both physiological and pathological processes associated to TNFa production, including inflammatory processes in the brain.RÉSUMÉLes astrocytes sont les cellules les plus abondantes du cerveau humain. Outre leur rôle bien établi dans le support métabolique de l'activité neuronale, d'autres fonctions importantes, et parfois inattendues de ces cellules ont été mises en lumière au cours de ces dernières années. Les astrocytes entourent étroitement les synapses de leurs fins processus qui expriment fortement les transporteurs du glutamate et permettent ainsi aux astrocytes de jouer un rôle critique dans l'élimination du glutamate de la fente synaptique. Néanmoins, les astrocytes semblent être capables de jouer un rôle plus intégratif en modulant l'activité synaptique, notamment par la libération de transmetteurs (gliotransmetteurs). Le gliotransmetteur le plus étudié est le glutamate qui est libéré par l'exocytose régulée de petites vésicules ressemblant aux vésicules synaptiques (SLMVs) via un mécanisme dépendant du calcium.Les résultats présentés dans cette thèse permettent une avancée significative dans la compréhension du mode de communication de ces cellules et de leur implication dans la transmission de l'information synaptique dans l'hippocampe, notamment des synapses excitatrices des cellules granulaires du gyrus dentelé. J'ai pu montrer que le « facteur de nécrose tumorale alpha » (TNFa), une cytokine communément associée au système immunitaire, est aussi fondamentale pour la communication entre astrocyte et synapse. Lorsqu'un niveau constitutif très bas de TNFa est présent, l'activation des récepteurs purinergiques P2Y1 (des récepteurs couplés à protéine G) produit une augmentation locale de calcium (mesurée en microscopie bi-photonique) dans l'astrocyte. Cette dernière déclenche ensuite une libération de glutamate par les astrocytes conduisant à l'activation de récepteurs NMDA présynaptiques et à une augmentation de l'activité synaptique. En revanche, dans la souris TNFa knock-out cette modulation de l'activité synaptique par les astrocytes n'est pas bien qu'ils présentent toujours une excitabilité calcique normale. Nous avons démontré que le TNFa contrôle spécifiquement l'exocytose régulée des SLMVs astrocytaires en permettant la fusion synchrone de ces vésicules et la libération de glutamate à destination des récepteurs neuronaux. Ainsi, nous avons, pour la première fois, prouvé que la modulation de l'activité synaptique par l'astrocyte nécessite, pour fonctionner correctement, des facteurs « permissifs » comme le TNFa, agissant sur le mode de sécrétion du glutamate astrocytaire.J'ai pu, en outre, démontrer que le TNFa, à des concentrations plus élevées (celles que l'on peut observer lors de conditions pathologiques) provoque une très forte augmentation de l'activité synaptique, agissant non plus comme simple facteur permissif mais bien comme déclencheur de la gliotransmission. Le TNFa provoque 1'activation des récepteurs NMD A pré-synaptiques (comme dans le cas des P2Y1R) mais son effet est à long terme et irréversible. J'ai découvert que le TNFa active le récepteur TNFR1, un des deux récepteurs spécifiques pour le TNFa. Ainsi, l'application de cette cytokine sur une tranche de cerveau de souris TNFR1 knock-out ne produit aucune modification de l'activité synaptique. Pour vérifier l'implication des astrocytes dans ce processus, j'ai ensuite mis au point un modèle animal doublement transgénique qui exprime le TNFR1 uniquement dans les astrocytes. Ce dernier m'a permis de prouver que l'activation des récepteurs TNFR1 astrocytaires est suffisante pour induire une augmentation de l'activité synaptique de manière durable.Nous avons donc découvert que le TNFa possède un double rôle, à la fois un rôle permissif et actif, dans le contrôle de la gliotransmission et, par conséquent, dans la modulation de l'activité synaptique. Cette découverte peut potentiellement être d'une extrême importance pour la compréhension des mécanismes physiologiques et pathologiques associés à la production du TNFa, en particulier lors de conditions inflammatoires.RÉSUMÉ GRAND PUBLICLes astrocytes représentent la population la plus nombreuse de cellules dans le cerveau humain. On sait, néanmoins, très peu de choses sur leurs fonctions. Pendant très longtemps, les astrocytes ont uniquement été considérés comme la colle du cerveau, un substrat inerte permettant seulement de lier les cellules neuronales entre elles. Il n'y a que depuis peu que l'on a découvert de nouvelles implications de ces cellules dans le fonctionnement cérébral, comme, entre autres, une fonction de support métabolique de l'activité neuronale et un rôle dans la modulation de la neurotransmission. C'est ce dernier aspect qui fait l'objet de mon projet de thèse.Nous avons découvert que l'activité des synapses (régions qui permettent la communication d'un neurone à un autre) qui peut être potentialisée par la libération du glutamate par les astrocytes, ne peut l'être que dans des conditions astrocytaires très particulières. Nous avons, en particulier, identifié une molécule, le facteur de nécrose tumorale alpha (TNFa) qui joue un rôle critique dans cette libération de glutamate astrocytaire.Le TNFa est surtout connu pour son rôle dans le système immunitaire et le fait qu'il est massivement libéré lors de processus inflammatoires. Nous avons découvert qu'en concentration minime, correspondant à sa concentration basale, le TNFa peut néanmoins exercer un rôle indispensable en permettant la communication entre l'astrocyte et le neurone. Ce mode de fonctionnement est assez probablement représentatif d'un processus physiologique qui permet d'intégrer la communication astrocyte/neurone au fonctionnement général du cerveau. Par ailleurs, nous avons également démontré qu'en quantité plus importante, le TNFa change son mode de fonctionnement et agit comme un stimulateur direct de la libération de glutamate par l'astrocyte et induit une activation persistante de l'activité synaptique. Ce mode de fonctionnement est assez probablement représentatif d'un processus pathologique.Nous sommes également arrivés à ces conclusions grâce à la mise en place d'une nouvelle souche de souris doublement transgéniques dans lesquelles seuls les astrocytes (etnon les neurones ou les autres cellules cérébrales) sont capables d'être activés par le TNFa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans la lignée des récents travaux de réévaluation de l'histoire des études cinématographiques. Son objectif est de réviser la conception actuelle de l'historiographie du cinéma en France de 1896 jusqu'au début des années 1950 en remettant en question la vision homogène du courant historique de l'histoire traditionnelle du cinéma telle que l'ont présentée les tenants de la nouvelle histoire du cinéma. Cette thèse se divise en trois parties. J'expose dans la première mon cadre et mon principal outil d'analyse. Je présente l'opération historiographique telle que définie par Michel de Certeau, soit comme le croisement d'un lieu social marqué par des cadres intellectuels dominants, d'un ensemble de procédures dont l'historien se sert pour sélectionner ses sources et construire les faits, et enfin, d'une écriture qui implique l'élaboration d'un système de relations entre les différents faits construits. Je décris ensuite les courants historiques en France des années 1870 jusqu'au début des années 1950. Ce panorama me permet de mieux identifier les échanges, les emprunts et les enrichissements qui se sont opérés entre l'histoire et l'histoire du cinéma durant cette période. Dans la deuxième partie, je « construis » depuis l'intérieur d'un vaste ensemble de discours d'historiens du cinéma, d'historiens de la culture et de théoriciens du cinéma ce qui deviendra la conception dominante de l'historiographie du cinéma. Je montre qu'elle est élaborée par ceux que plusieurs commentateurs nomment les nouveaux historiens du cinéma et qu'elle se réduit à la succession de deux grands courants historiques : l'histoire traditionnelle et la nouvelle histoire du cinéma. J'expose ensuite comment cet acte de périodisation est instrumentalisé par ceux qui l'effectuent. L'objectif des nouveaux historiens n'est pas d'exhumer la pluralité des écritures de l'histoire du cinéma, mais plutôt de mettre en évidence la rupture qu'ils opèrent au sein de l'historiographie du cinéma. L'examen de la place accordée au dispositif cinématographique Hale's Tours dans les histoires générales parues avant et après le Congrès de Brighton me permet finalement d'atténuer la rupture entre ces deux courants historiques. Dans la troisième partie, j'engage l'examen de plusieurs manières d'approcher l'histoire du cinéma. J'identifie différentes ruptures dans l'historiographie française du cinéma concernant l'objet historique que les historiens se donnent, les outils conceptuels qu'ils convoquent et leurs relations aux sources qu'ils utilisent. Ces études de cas me permettent au final de témoigner de la richesse de l'historiographie française du cinéma avant le début des années 1950.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats des recherches contemporaines, montrant notamment l'importance du raisonnement fluide, de la mémoire de travail (IMT) et de la vitesse de traitement (IVT) dans le fonctionnement cognitif, ont conduit les concepteurs de la WAIS-IV à introduire de nouvelles épreuves pour renforcer l'évaluation de ces dimensions cognitives. L'interprétation des scores de la WAIS-IV repose maintenant sur quatre indices factoriels (ICV, IRP, IMT et IVT), ainsi que sur le QIT. Les concepteurs de la WAIS-IV indiquent que l'un des objectifs de la révision consistait à actualiser les fondements théoriques de cette échelle. Pourtant, la structure globale de la WAIS-IV ne correspond que partiellement à celle proposée dans le modèle qui fait consensus aujourd'hui, le modèle de Cattell-Horn-Carroll (CHC). Par exemple, la WAIS-IV ne propose pas d'indice de raisonnement fluide, bien que les constructeurs soulignent l'importance de cette dimension dans le fonctionnement cognitif. Dans cet article, nous proposons, pour la WAIS-IV, les normes francophones de cinq scores composites CHC, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm), et l'IVT (Gs). Ces normes ont été établies en utilisant une procédure d'approximation statistique. À l'instar des scores CHC que nous avons proposés pour le WISCIV, ces normes pour la WAIS-IV permettent aux cliniciens de basculer vers une grille d'interprétation basée sur le modèle dominant et d'utiliser les cinq scores composites CHC en complément des quatre indices standard dans le cadre d'analyses normatives et ipsatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1) Etat des connaissances : Actuellement, les indications à la transplantation pulmonaire sont bien décrites et validées. Par contre, lors d'une retransplantation, les résultats restent encore discutés : la retransplantation pulmonaire reste la seule option thérapeutique dans certains cas de rejet du greffon, de syndrome de bronchiolite oblitérante avancée et aussi lors de graves affections respiratoires, principalement de sténose cicatricielle. Malgré cela, son utilité a été mise en doute en raison de la pénurie de donneurs d'organes et des rapports indiquant des résultats insatisfaisants. 2) But de l'étude : Ce travail est une étude d'évaluation méthodologique dans lequel on utilisera un questionnaire DELPHI auprès de 10 soignants engagés dans le programme Vaud-Genève de transplantation pulmonaire afin de déterminer les critères de sélection qui mèneraient à la pratique d'une retransplantation. 3) Objectifs : Ce projet a pour but d'élaborer un consensus local sur les critères et les contre-indications à une retransplantation pulmonaire, dans le cadre du programme Vaud-Genève et du système d'allocation d'organes en vigueur en Suisse. D'où la question : ''Quelles sont les indications potentielles à une retransplantation pulmonaire ?'' 4) Justification : Dans une situation de pénurie explicite de ressources (manque de donneurs), l'utilisation des greffons doit être basée à la fois sur des critères d'équité et d'efficacité médicale. En l'absence de données claires dans la littérature sur les indications à la retransplantation pulmonaire, la recherche d'une attitude pragmatique au sein du programme local est justifiée. 5) Méthode : Cette étude monocentrique multisite est une étude clinique ouverte où les personnes interrogées restent en insu: un questionnaire DELPHI sera envoyé à 10 soignants spécialisés dans le domaine de la transplantation pulmonaire issus du programme Vaud-Genève. La méthode Delphi a pour but de mettre en évidence des convergences d'opinions afin de trouver des consensus grâce à l'interrogation de différents experts par le biais de questionnaires successifs. L'objectif des études Delphi est d'apporter l'éclairage des experts sur des zones d'incertitude en vue d'une aide à la décision. 6) Sélection des sujets : Les ''sujets'' éligibles sont un groupe de 10 experts anonymes spécialisés dans le domaine de la retransplantation pulmonaire du canton de Vaud et de Genève. 6.1 Critères d'inclusion : Personnel médical et paramédical directement impliqué dans le cadre du programme de transplantation Vaud-Genève. 6.2 Critère d'exclusion : Toute personne qui est elle-même directement impliquée dans l'analyse de l'étude. 7) Déroulement de l'étude et investigations prévues: L'étude aura lieu au CHUV et au HUG pour une durée de 2 ans. Les investigations seront effectuées par le biais de questionnaires envoyés par courrier électronique et seront analysées au CHUV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The current literature on the role of interleukin (IL)-2 in memory CD8+ T-cell differentiation indicates a significant contribution of IL-2 during primary and also secondary expansion of CD8+ T cells. IL-2 seems to be responsible for optimal expansion and generation of effector functions following primary antigenic challenge. As the magnitude of T-cell expansion determines the numbers of memory CD8+ T cells surviving after pathogen elimination, these event influence memory cell generation. Moreover, during the contraction phase of an immune respons where most antigen-specific CD8+ T cells disappear by apoptosis, IL-2 signals are able to rescu CD8+ T cells from cell death and provide a durable increase in memory CD8+ T-cell counts. At the memory stage, CD8+ T-cell frequencies can be boosted by administration of exogenous IL-2 Significantly, only CD8+ T cells that have received IL-2 signals during initial priming are able t mediate efficient secondary expansion following renewed antigenic challenge. Thus, IL-2 signals during different phases of an immune response are key in optimizing CD8+ T-cell functions, thereby affecting both primary and secondary responses of these T cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: Les séquences de ciné MR sont utiles pour rechercher une bicuspidie. Les séquences en contraste de phase permettent de mesurer les vitesses et flux transvalvulaires. La fraction de régurgitation est corrélée à la sévérité de l'insuffisance aortique. Une planimétrie peut être effectuée sur les séquences de ciné MR ou de flux. Résumé: L'étude de la valve aortique en IRM nécessite un placement rigoureux des plans de coupes à partir de 2 incidences orthogonales passant par la chambre de chasse. Les séquences de ciné IRM permettent une analyse dynamique de l'ouverture de la valve et sont utiles pour rechercher une bicuspidie et une dilatation de l'aorte. Leur sensibilité au flux turbulents est relativement faible vu leur TE court, à l'inverse des séquences en écho de gradient à TE long. Les séquences de ciné MR permettent également de calculer les volumes ventriculaires gauches et la fraction d'éjection, paramètres importants dans le traitement. Les séquences en contraste permettent de mesurer la vitesse trans-valvulaire et de calculer le volume éjecté dans l'aorte et le volume régurgité dans le ventricule gauche. Elles peuvent être réalisées dans le plan du flux ou au travers du plan. Il est important de régler correctement la vitesse de codage maximale afin d'éviter des erreurs de codage de vitesse (phénomène d'"aliasing"). Dans le cadre d'une insuffisance aortique, le ratio volume régurgité / volume éjecté, appelé fraction de régurgitation, est relié à la sévérité de la valvulopathie. L'IRM peut également permettre de réaliser une planimétrie de l'orifice valvulaire aortique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Uveal melanoma exhibits a high incidence of metastases; and, to date, there is no systemic therapy that clearly improves outcomes. The anticytotoxic T-lymphocyte-associated protein 4 (anti-CTLA-4) antibody ipilimumab is a standard of care for metastatic melanoma; however, the clinical activity of CTLA-4 inhibition in patients with metastatic uveal melanoma is poorly defined. METHODS: To assess ipilimumab in this setting, the authors performed a multicenter, retrospective analysis of 4 hospitals in the United States and Europe. Clinical characteristics, toxicities, and radiographic disease burden, as determined by central, blinded radiology review, were evaluated. RESULTS: Thirty-nine patients with uveal melanoma were identified, including 34 patients who received 3 mg/kg ipilimumab and 5 who received 10 mg/kg ipilimumab. Immune-related response criteria and modified World Health Organization criteria were used to assess the response rate (RR) and the combined response plus stable disease (SD) rate after 12 weeks, after 23 weeks, and overall (median follow-up, 50.4 weeks [12.6 months]). At week 12, the RR was 2.6%, and the response plus SD rate was 46.%; at week 23, the RR was 2.6%, and the response plus SD rate was 28.2%. There was 1 complete response and 1 late partial response (at 100 weeks after initial SD) for an immune-related RR of 5.1%. Immune-related adverse events were observed in 28 patients (71.8%) and included 7 (17.9%) grade 3 and 4 events. Immune-related adverse events were more frequent in patients who received 10 mg/kg ipilimumab than in those who received 3 mg/kg ipilimumab. The median overall survival from the first dose of ipilimumab was 9.6 months (95% confidence interval, 6.3-13.4 months; range, 1.6-41.6 months). Performance status, lactate dehydrogenase level, and an absolute lymphocyte count ≥ 1000 cells/μL at week 7 were associated significantly with survival. CONCLUSIONS: In this multicenter, retrospective analysis of 4 hospitals in the United States and Europe of patients with uveal melanoma, durable responses to ipilimumab and manageable toxicity were observed.