1000 resultados para Cadre d’analyse


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Impression clinique que l'Etat de Stress Post-traumatique (ESPT) est sous-diagnostiqué dans la prise en charge des patients qui sont évalués dans le cadre d'une urgence psychiatrique. Objectifs: (i) identifier la prévalence de l'ESPT dans une unité d'urgence psychiatrique au moyen d'un instrument diagnostic et la comparer avec le diagnostic clinique retenu dans un échantillon historique (ii) évaluer la perception des cliniciens quant à l'utilisation systématique d'un instrument diagnostic Méthodes: la prévalence de l'ESPT a été évaluée chez des patients consécutifs (N = 403) qui ont bénéficié d'une consultation par des psychiatres de l'Unité urgence-crise du Service de Psychiatrie de Liaison (PLI) du CHUV, en utilisant le module J du Mini Mental Neuropsychologic Interview (MINI 5.0.0, version CIM-10). Ce résultat a été comparé avec la prévalence de l'ESPT mentionné comme diagnostic dans les dossiers (N = 350) d'un échantillon historique. La perception des médecins-assistants de psychiatrie quant au dépistage systématique de l'ESPT avec un instrument a été étudiée en se basant sur la conduite d'un focus group d'assistants travaillant dans l'Unité urgence-crise du PLI. Résultats: Parmi les patients (N = 316) évalués à l'aide de l'instrument diagnostic, 20,3% (n = 64) réunissaient les critères de l'ESPT. Cela constitue un taux de prévalence significativement plus élevé que la prévalence d'ESPT documentée dans les dossiers de l'échantillon historique (0,57%). Par ailleurs, la prévalence de l'ESPT est significativement plus élevée parmi les groupes socio- économiques précarisés, tels que réfugiés et sans papiers (50%), patients venant d'un pays à histoire de guerre récente (47,1%), patients avec quatre (44,4%) ou trois comorbidités psychiatriques (35,3%), migrants (29,8%) et patients sans revenus professionnels (25%). Le focus groupe composé de 8 médecins-assistants a révélé que l'utilisation systématique d'un outil- diagnostic ne convenait pas dans le setting d'urgence psychiatrique, notamment parce que l'instrument a été considéré comme non adapté à une première consultation ou jugé avoir un impact négatif sur l'entretien clinique. Toutefois, après la fin de l'étude, les médecins-assistants estimaient qu'il était important de rechercher activement l'ESPT et continuaient à intégrer les éléments principaux du questionnaire dans leur travail clinique. Conclusion et perspectives: cette étude confirme que l'ESPT est largement sous-diagnostiqué dans le contexte des urgences psychiatriques, mais que l'usage systématique d'un outil diagnostic dans ce cadre ne satisfait pas les praticiens concernés. Pour améliorer la situation et au vu du fait qu'un instrument diagnostic est considéré comme non-adapté dans ce setting, il serait peut-être bénéfique d'envisager un dépistage ciblé et/ou de mettre en place une stratégie de formation institutionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Qu'est-ce que la psychose, comment apparaît-elle comme «perte du contact avec la réalité», le rapport au réel permet-il de constituer une classe de maladies mentales en soi, d'inférer une structure ou une superstructure commune aux diverses formes cliniques, voilà nos questions de départ, à l'heure où la notion même de psychose est peut-être en train de disparaître de la nosologie psychiatrique contemporaine. Notre travail s'attache, dans sa première partie, à montrer comment est apparu, dans la littérature médicale et psychiatrique du XIXème siècle, le terme de «psychose », pour désigner d'abord l'ensemble des affections mentales telles qu'elles se manifestaient en particulier chez les malades asilaires, dans le cadre plus général des «névroses », c'est-à-dire des affections primaires du système nerveux. Ainsi, la psychose se situe dès l'origine à l'interface du biologique et du psychologique ; s'esquisse aussi de la sorte un champ spécifique au psychiatre, les névroses : « non-psychotiques » relevant plutôt du somaticien. Un premier auteur (H.Schuele) distingue cérébro-psychoses » et « psycho-névroses » dans une acception plus familière au lecteur contemporain : les premières sont des maladies plus sévères, irréversibles, dont l'étiologie est plutôt organique, et les secondes sont moins graves, des maladies « de l'esprit ». Mais c'est avec Freud, qui réunit l'hystérie (la névrose par excellence, d'autant plus qu'elle se manifeste presque exclusivement par des symptômes neurologiques, c'est-à-dire «névrotiques »), les phobies et ce que Kraepelin appelait la Zwangsirresein (la folie de contrainte) sous le terme de psychonévroses de transfert, que vient se constituer durablement le partenaire dialectique qui permettra à la psychose de s'ériger en classe, regroupant la schizophrénie, la maladie maniaco-dépressive, la paranoïa et les psychoses organiques. Freud a situé la problématique spécifique de la psychose comme une perturbation du rapport à la réalité. Cet aspect des psychoses est le plus largement retenu dans le langage «courant » de la psychiatrie clinique, de nos jours encore. Dans sa deuxième partie, ce travail cherche à préciser comment s'élaborent chez Freud les théories de la psychose, plus particulièrement pour ce qui est du rapport à la réalité. On verra alors que ces théories rendent compte pour l'essentiel de la clinique de ce que Freud appelle les paraphrénies, qui rassemblent la schizophrénie et la paranoïa, mais que la maladie maniaco-dépressive semble pour lui d'un registre relativement différent. Il propose même de la ranger dans une catégorie propre, les «névroses narcissiques », reprenant pour l'occasion un terme qu'il utilisait auparavant pour les «psychoses » - comme quoi les questions terminologiques ne sont ni anodines, ni simples. Notre travail s'intéresse enfin à la façon dont la littérature analytique a abordé ces questions, à la suite de Freud. Les auteurs, choisis pour leur renom et leur importance historique ainsi que pour leur intérêt pour les questions soulevées ici, ont chacun des conceptions très diverses des psychoses et de la façon dont l'homme établit un rapport avec la réalité qui l'entoure. D'une façon générale, et comme Freud, ils traitent de la schizophrénie bien plus que de la maladie maniaco-dépressive, et les mécanismes psychopathologiques proposés semblent toujours assez distincts. En définitive, nous n'avons pas trouvé, dans l'histoire de la notion de psychose et chez quelques-uns des auteurs majeurs de la psychanalyse, de justification théorique à la constitution d'une classe en soi de maladies mentales, articulée autour d'un trouble spécifique du rapport à la réalité, qui corresponde à la classe des psychoses. Il n'en reste pas moins que la clinique, qui rapproche souvent la crise schizophrénique et la crise maniaque, appelle assez naturellement l'adjectif «psychotique », comme descriptif de certains symptômes manifestant, le plus souvent, la présence d'une «psychose» sous-jacente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les adolescentes souffrant de troubles du comportement alimentaireatypiques sont nombreuses, mais les soins qui leur sont offertsne sont pas toujours adaptés à leur âge et à leurs difficultés. Pourrépondre aux demandes de plus en plus fréquentes, un groupe thérapeutiquea été proposé aux jeunes filles présentant ces troubles dansle cadre de l'unité multidisciplinaire de santé des adolesents(UMSA), au centre hospitalier universitaire de Lausanne. Ce groupeétait animé par un psychologue et un médecin somaticien, représentantà la fois le fonctionnement interdisciplinaire du service et le passagedu soma au psyché que ces adolescentes doivent effectuer pours'extraire de l'emprise de leur corps et accéder à leur psychisme.La création du groupe et les étapes de son évolution montrentcomment ces jeunes filles ont bénéficié de cette double animationet des interactions avec les autres participantes pour progresser versune prise de conscience, une liberté de parole plus importante etune plus grande autonomie. La dynamique du groupe et la résonancedu travail thérapeutique avec les besoins propres à l'adolescencepermettent de discuter l'utilité de la thérapie de groupe pourles jeunes filles présentant des désordres alimentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A character network represents relations between characters from a text; the relations are based on text proximity, shared scenes/events, quoted speech, etc. Our project sketches a theoretical framework for character network analysis, bringing together narratology, both close and distant reading approaches, and social network analysis. It is in line with recent attempts to automatise the extraction of literary social networks (Elson, 2012; Sack, 2013) and other studies stressing the importance of character- systems (Woloch, 2003; Moretti, 2011). The method we use to build the network is direct and simple. First, we extract co-occurrences from a book index, without the need for text analysis. We then describe the narrative roles of the characters, which we deduce from their respective positions in the network, i.e. the discourse. As a case study, we use the autobiographical novel Les Confessions by Jean-Jacques Rousseau. We start by identifying co-occurrences of characters in the book index of our edition (Slatkine, 2012). Subsequently, we compute four types of centrality: degree, closeness, betweenness, eigenvector. We then use these measures to propose a typology of narrative roles for the characters. We show that the two parts of Les Confessions, written years apart, are structured around mirroring central figures that bear similar centrality scores. The first part revolves around the mentor of Rousseau; a figure of openness. The second part centres on a group of schemers, depicting a period of deep paranoia. We also highlight characters with intermediary roles: they provide narrative links between the societies in the life of the author. The method we detail in this complete case study of character network analysis can be applied to any work documented by an index. Un réseau de personnages modélise les relations entre les personnages d'un récit : les relations sont basées sur une forme de proximité dans le texte, l'apparition commune dans des événements, des citations dans des dialogues, etc. Notre travail propose un cadre théorique pour l'analyse des réseaux de personnages, rassemblant narratologie, close et distant reading, et analyse des réseaux sociaux. Ce travail prolonge les tentatives récentes d'automatisation de l'extraction de réseaux sociaux tirés de la littérature (Elson, 2012; Sack, 2013), ainsi que les études portant sur l'importance des systèmes de personnages (Woloch, 2003; Moretti, 2011). La méthode que nous utilisons pour construire le réseau est directe et simple. Nous extrayons les co-occurrences d'un index sans avoir recours à l'analyse textuelle. Nous décrivons les rôles narratifs des personnages en les déduisant de leurs positions relatives dans le réseau, donc du discours. Comme étude de cas, nous avons choisi le roman autobiographique Les Confessions, de Jean- Jacques Rousseau. Nous déduisons les co-occurrences entre personnages de l'index présent dans l'édition Slatkine (Rousseau et al., 2012). Sur le réseau obtenu, nous calculons quatre types de centralité : le degré, la proximité, l'intermédiarité et la centralité par vecteur propre. Nous utilisons ces mesures pour proposer une typologie des rôles narratifs des personnages. Nous montrons que les deux parties des Confessions, écrites à deux époques différentes, sont structurées autour de deux figures centrales, qui obtiennent des mesures de centralité similaires. La première partie est construite autour du mentor de Rousseau, qui a symbolisé une grande ouverture. La seconde partie se focalise sur un groupe de comploteurs, et retrace une période marquée par la paranoïa chez l'auteur. Nous mettons également en évidence des personnages jouant des rôles intermédiaires, et de fait procurant un lien narratif entre les différentes sociétés couvrant la vie de l'auteur. La méthode d'analyse des réseaux de personnages que nous décrivons peut être appliquée à tout texte de fiction comportant un index.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Adeno-associated virus (AAV) is a small DNA virus belonging to the familiy of Parvoviridae. Its genome contains two genes : the rep gene encoding four non structural proteins (Rep78, 68, 52 and 40) implicated in transcription, replication and site-specific integration of the viral DNA and the cap gene encoding three capsid proteins. AAV does not cause any disease, but is studied in view of its potential use to treat several diseases. An interesting property of AAV is its antiproliferative effect. Two elements of AAV can inhibit cell growth. Firstly, the single stranded viral DNA is recognized in cells as damaged DNA leading to either a G2 block or cell death depending on p53 status. Secondly, the two larger Rep proteins (Rep78 and 68) also arrest the cell cycle when they are expressed at high levels. Rep78 in particular induces a complete cell cycle arrest in all the phases, including S phase. Such a strong S phase arrest is rarely seen in other conditions. It was thus interesting to determine how Rep78 could induce it. We found that this strong block is the consequence of Rep78's effects on at least two pathways. Rep78 induces a DNA damage response by producing nicks in the cellular chromatin. Furthermore, Rep78 can bind to the cellular phosphatase Cdc25A and prevent its binding to its substrates CDK2 and CDK1, thus inhibiting its activity. A mutational analysis of Rep78 protein determined that its endonuclease activity is responsible for the DNA damage response and its zinc finger domain for Cdc25A inhibition. The combined expression of two mutants each defective for one of these activities, or these two activities obtained independently of Rep78, could restore the complete cell cycle block, indicating that these two effects of Rep78 are likely to explain completely the cell cycle block it induces. Secondly, the lack of pathogenicity of AAV, its broad range of infection and its ability to integrate site-specifically in human chromosome 19 make it an interesting potential vector for gene therapy. However site-specific integration is only possible in the presence of Rep78/68 whose gene is removed in recombinant AAV vectors. In this part of the study, we tried to introduce Rep protein separately from recombinant AAV vectors to promote their site-specific integration. For that purpose, a fusion protein, TAT-Rep, comprising Rep78/68 joined to the human immunodeficiency virus Tat protein was produced. It had the ability to enter cells and remain active there for a short period. Its activity was sufficient to mediate transcription from the p5 promoter, second-strand synthesis of a recombinant AAV and probably site-specific integration. Résumé : Le virus associé à l'adénovirus (AAV) est un petit virus à ADN qui fait partie de la famille des Parvoviridae. Son génome contient deux gènes : le gène rep code pour quatre protéines (Rep78, 68, 52 et 40) qui participent à la transcription, la réplication et l'intégration du virus et le gène cap code pour les trois protéines de capside. AAV ne produit pas de maladie, mais pourrait au contraire être utilisé pour en soigner. Sa bénignité, sa capacité à infecter différents types de cellules et son intégration spécifique en font un vecteur potentiel pour la thérapie génique. Pour qu'il puisse s'intégrer spécifiquement, il a besoin de la protéine Rep78 ou 68, mais ce gène doit être enlevé des vecteurs pour la thérapie génique. Le but de la première partie de cette étude était d'introduire Rep78 ou 68 dans des cellules en même temps qu'un AAV recombinant, mais indépendamment afin de permettre une intégration spécifique. La stratégie utilisée était de produire une protéine de fusion (TAT-Rep) qui peut entrer dans des cellules si elle est présente dans leur milieu. Cette protéine entrait bien dans les cellules et y était active favorisant ainsi l'intégration spécifique. Une deuxième propriété d'AAV, son effet anti-prolifératif, est intéressante dans le cadre de certaines maladies comme le cancer. Deux éléments d'AAV en sont responsables. D'abord, son ADN simple brin active une réponse cellulaire à l'ADN endommagé et arrête les cellules en G2 ou provoque leur mort. De plus, la protéine Rep78 d'AAV peut fortement bloquer le cycle cellulaire à toutes les phases, même en phase S, ce qui est rare. C'est pourquoi nous avons essayé de comprendre cet effet. Nous avons remarqué que Rep78 doit agir sur deux fronts pour obtenir ce fort bloc. D'un côté, Rep78 introduit des coupures simple brin sur l'ADN de la cellule ce qui active une réponse cellulaire à l'ADN endommagé qui passe par ATM. D'un autre côté, Rep78 lie une phosphatase cellulaire, Cdc25A, et l'empêche ainsi de lier ses substrats CDK2 et CDK1 et donc d'être active. Finalement, à l'aide de mutants de Rep78, nous avons déterminé que l'activité endonuclease de Rep78 était nécessaire pour induire une réponse cellulaire via ATM et que le domaine C-terminal appelé «zinc finger » était responsable de la liaison avec Cdc25A. En co-exprimant deux mutants, qui n'ont chacun qu'un des effets de Rep78, ou en obtenant les deux effets de Rep78 indépendamment d'elle, nous avons obtenu un bloc complet du cycle cellulaire similaire à celui obtenu avec Rep78. Il est donc probable que ces deux effets de Rep78 sont suffisants pour expliquer comment elle arrive à arrêter le cycle cellulaire si efficacement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contact aureoles provide an excellent geologic environment to study the mechanisms of metamorphic reactions in a natural system. The Torres del Paine (TP) intrusion is one of the most spectacular natural laboratories because of its excellent outcrop conditions. It formed in a period from 12.59 to 12.43 Ma and consists of three large granite and four smaller mafic batches. The oldest granite is on top, the youngest at the bottom of the granitic complex, and the granites overly the mafic laccolith. The TP intruded at a depth of 2-3 km into regional metamorphic anchizone to greenschist facies pelites, sandstones, and conglomerates of the Cerro Toro and Punta Barrosa formations. It formed a thin contact aureole of 150-400 m width. This thesis focuses on the reaction kinetics of the mineral cordierite in the contact aureole using quantitative textural analysis methods. First cordierite was formed from chlorite break¬down (zone I, ca. 480 °C, 750 bar). The second cordierite forming reaction was the muscovite break-down, which is accompanied by a modal decrease in biotite and the appearance of k- feldspar (zone II, 540-550 °C, 750 bar). Crystal sizes of the roundish, poikiloblastic cordierites were determined from microscope thin section images by manually marking each crystal. Images were then automatically processed with Matlab. The correction for the intersection probability of each crystal radius yields the crystal size distribution in the rock. Samples from zone I below the laccolith have the largest crystals (0.09 mm). Cordierites from zone II are smaller, with a maximum crystal radius of 0.057 mm. Rocks from zone II have a larger number of small cordierite crystals than rocks from zone I. A combination of these quantitative analysis with numerical modeling of nucleation and growth, is used to infer nucleation and growth parameters which are responsible for the observed mineral textures. For this, the temperature-time paths of the samples need to be known. The thermal history is complex because the main body of the intrusion was formed by several intrusive batches. The emplacement mechanism and duration of each batch can influence the thermal structure in the aureole. A possible subdivision of batches in smaller increments, so called pulses, will focus heat at the side of the intrusion. Focusing all pulses on one side increases the contact aureole size on that side, but decreases it on the other side. It forms a strongly asymmetric contact aureole. Detailed modeling shows that the relative thicknesses of the TP contact aureole above and below the intrusion (150 and 400 m) are best explained by a rapid emplacement of at least the oldest granite batch. Nevertheless, temperatures are significantly too low in all models, compared to observed mineral assemblages in the hornfelses. Hence, an other important thermal mechanisms needs to take place in the host rock. Clastic minerals in the immature sediments outside the contact aureole are hydrated due to small amounts of expelled fluids during contact metamorphism. This leads to a temperature increase of up to 50 °C. The origin of fluids can be traced by stable isotopes. Whole rock stable isotope data (6D and δ180) and chlorine concentrations in biotite document that the TP intrusion induced only very small amounts of fluid flow. Oxygen whole rock data show δ180 values between 9.0 and 10.0 %o within the first 5 m of the contact. Values increase to 13.0 - 15.0 %o further away from the intrusion. Whole rock 6D values display a more complex zoning. First, host rock values (-90 to -70 %o) smoothly decrease towards the contact by ca. 20 %o, up to a distance of ca. 150 m. This is followed by an increase of ca. 20 %o within the innermost 150 m of the aureole (-97.0 to -78 %o at the contact). The initial decrease in 6D values is interpreted to be due to Rayleigh fractionation accompanying the dehydration reactions forming cordierite, while the final increase reflects infiltration of water-rich fluids from the intrusion. An over-estimate on the quantity and the corresponding thermal effect yields a temperature increase of less than 30 °C. This suggests that fluid flow might have contributed only for a small amount to the thermal evolution of the system. A combination of the numerical growth model with the thermal model, including the hydration reaction enthalpies but neglecting fluid flow and incremental growth, can be used to numerically reproduce the observed cordierite textures in the contact aureole. This yields kinetic parameters which indicate fast cordierite crystallization before the thermal peak in the inner aureole, and continued reaction after the thermal peak in the outermost aureole. Only small temperature dependencies of the kinetic parameters seem to be needed to explain the obtained crystal size data. - Les auréoles de contact offrent un cadre géologique privilégié pour l'étude des mécanismes de réactions métamorphiques associés à la mise en place de magmas dans la croûte terrestre. Par ses conditions d'affleurements excellentes, l'intrusion de Torres del Paine représente un site exceptionnel pour améliorer nos connaissances de ces processus. La formation de cette intrusion composée de trois injections granitiques principales et de quatre injections mafiques de volume inférieur couvre une période allant de 12.50 à 12.43 Ma. Le plus vieux granite forme la partie sommitale de l'intrusion alors que l'injection la plus jeune s'observe à la base du complexe granitique; les granites recouvrent la partie mafique du laccolite. L'intrusion du Torres del Paine s'est mise en place a 2-3 km de profondeur dans un encaissant métamorphique. Cet encaissant est caractérisé par un métamorphisme régional de faciès anchizonal à schiste vert et est composé de pélites, de grès, et des conglomérats des formations du Cerro Toro et Punta Barrosa. La mise en place des différentes injections granitiques a généré une auréole de contact de 150-400 m d'épaisseur autour de l'intrusion. Cette thèse se concentre sur la cinétique de réaction associée à la formation de la cordiérite dans les auréoles de contact en utilisant des méthodes quantitatives d'analyses de texture. On observe plusieurs générations de cordiérite dans l'auréole de contact. La première cordiérite est formée par la décomposition de la chlorite (zone I, environ 480 °C, 750 bar), alors qu'une seconde génération de cordiérite est associée à la décomposition de la muscovite, laquelle est accompagnée par une diminution modale de la teneur en biotite et l'apparition de feldspath potassique (zone II, 540-550 °C, 750 bar). Les tailles des cristaux de cordiérites arrondies et blastic ont été déterminées en utilisant des images digitalisées des lames minces et en marquant individuellement chaque cristal. Les images sont ensuite traitées automatiquement à l'aide du programme Matlab. La correction de la probabilité d'intersection en fonction du rayon des cristaux permet de déterminer la distribution de la taille des cristaux dans la roche. Les échantillons de la zone I, en dessous du lacolite, sont caractérisés par de relativement grands cristaux (0.09 mm). Les cristaux de cordiérite de la zone II sont plus petits, avec un rayon maximal de 0.057 mm. Les roches de la zone II présentent un plus grand nombre de petits cristaux de cordiérite que les roches de la zone I. Une combinaison de ces analyses quantitatives avec un modèle numérique de nucléation et croissance a été utilisée pour déduire les paramètres de nucléation et croissance contrôlant les différentes textures minérales observées. Pour développer le modèle de nucléation et de croissance, il est nécessaire de connaître le chemin température - temps des échantillons. L'histoire thermique est complexe parce que l'intrusion est produite par plusieurs injections successives. En effet, le mécanisme d'emplace¬ment et la durée de chaque injection peuvent influencer la structure thermique dans l'auréole. Une subdivision des injections en plus petits incréments, appelés puises, permet de concentrer la chaleur dans les bords de l'intrusion. Une mise en place préférentielle de ces puises sur un côté de l'intrusion modifie l'apport thermique et influence la taille de l'auréole de contact produite, auréole qui devient asymétrique. Dans le cas de la première injection de granite, une modélisation détaillée montre que l'épaisseur relative de l'auréole de contact de Torres del Paine au-dessus et en dessous de l'intrusion (150 et 400 m) est mieux expliquée par un emplacement rapide du granite. Néanmoins, les températures calculées dans l'auréole de con¬tact sont trop basses pour que les modèles thermiques soient cohérants par rapport à la taille de cette auréole. Ainsi, un autre mecanisme exothermique est nécessaire pour permettre à la roche encais¬sante de produire les assemblages observés. L'observation des roches encaissantes entourant les granites montre que les minéraux clastiques dans les sédiments immatures au-dehors de l'auréole sont hydratés suite à la petite quantité de fluide expulsée durant le métamorphisme de contact et/ou la mise en place des granites. Les réactions d'hydratation peuvent permettre une augmentation de la température jusqu'à 50 °C. Afin de déterminer l'origine des fluides, une étude isotopique de roches de l'auréole de contact a été entreprise. Les isotopes stables d'oxygène et d'hydrogène sur la roche totale ainsi que la concentration en chlore dans la biotite indiquent que la mise en place des granites du Torres del Paine n'induit qu'une circulation de fluide limitée. Les données d'oxygène sur roche totale montrent des valeurs δ180 entre 9.0 et 10.0%o au sein des cinq premiers mètres du contact. Les valeurs augmentent jusqu'à 13.0 - 15.0 plus on s'éloigne de l'intrusion. Les valeurs 5D sur roche totale montrent une zonation plus complexe. Les valeurs de la roche encaissante (-90 à -70%o) diminuent progressivement d'environ 20%o depuis l'extérieur de l'auréole jusqu'à une distance d'environ 150 m du granite. Cette diminution est suivie par une augmentation d'environ 20%o au sein des 150 mètres les plus proches du contact (-97.0 à -78%o au contact). La diminution initiale des valeurs de 6D est interprétée comme la conséquence du fractionnement de Rayleigh qui accompagne les réactions de déshydratation formant la cordiérite, alors que l'augmentation finale reflète l'infiltration de fluide riche en eau venant de l'intrusion. A partir de ces résultats, le volume du fluide issu du granite ainsi que son effet thermique a pu être estimé. Ces résultats montrent que l'augmentation de température associée à ces fluides est limitée à un maximum de 30 °C. La contribution de ces fluides dans le bilan thermique est donc faible. Ces différents résultats nous ont permis de créer un modèle thermique associé à la for¬mation de l'auréole de contact qui intègre la mise en place rapide du granite et les réactions d'hydratation lors du métamorphisme. L'intégration de ce modèle thermique dans le modèle numérique de croissance minérale nous permet de calculer les textures des cordiérites. Cepen¬dant, ce modèle est dépendant de la vitesse de croissance et de nucléation de ces cordiérites. Nous avons obtenu ces paramètres en comparant les textures prédites par le modèle et les textures observées dans les roches de l'auréole de contact du Torres del Paine. Les paramètres cinétiques extraits du modèle optimisé indiquent une cristallisation rapide de la cordiérite avant le pic thermique dans la partie interne de l'auréole, et une réaction continue après le pic thermique dans la partie la plus externe de l'auréole. Seules de petites dépendances de température des paramètres de cinétique semblent être nécessaires pour expliquer les don¬nées obtenues sur la distribution des tailles de cristaux. Ces résultats apportent un éclairage nouveau sur la cinétique qui contrôle les réactions métamorphiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail vise à clarifier les résultats contradictoires de la littérature concernant les besoins des patients d'être informés et de participer à la prise de décision. La littérature insiste sur le contenu de l'information comme base de la prise de décision, bien qu'il existe des preuves que d'autres contenus sont importants pour les patients. La thèse essaie en outre d'identifier des possibilités de mieux répondre aux préférences d'information et de participation des patients. Les travaux ont porté en particulier sur les soins palliatifs. Une analyse de la littérature donne un aperçu sur les soins palliatifs, sur l'information des patients et sur leur participation à la prise de décisions thérapeutiques. Cette analyse résume les résultats d'études précédentes et propose un: modèle théorique d'information, de prise de décision et de relation entre ces deux domaines. Dans le cadre de ce travail, deux études empiriques ont utilisé des questionnaires écrits adressés à des personnes privées et à des professionnels de la santé, couvrant la Suisse et le Royaume Uni, pour identifier d'éventuelles différences entre ces deux pays. Les enquêtes ont été focalisées sur des patients souffrant de cancer du poumon. Les instruments utilisés pour ces études proviennent de la littérature afin de les rendre comparables. Le taux de réponse aux questionnaires était de 30-40%. La majorité des participants aux enquêtes estime que les patients devraient: - collaborer à la prise de décision quant à leur traitement - recevoir autant d'information que possible, positive aussi bien que négative - recevoir toutes les informations mentionnées dans le questionnaire (concernant la maladie, le diagnostic et les traitements), tenant compte de la diversité des priorités des patients - être soutenus par des professionnels de la santé, leur famille, leurs amis et/ou les personnes souffrant de la même maladie En plus, les participants aux enquêtes ont identifié divers contenus de l'information aux patients souffrant d'une maladie grave. Ces contenus comprennent entre autres: - L'aide à la prise de décision concernant le traitement - la possibilité de maintenir le contrôle de la situation - la construction d'une relation entre le patient et le soignant - l'encouragement à faire des projets d'avenir - l'influence de l'état émotionnel - l'aide à la compréhension de la maladie et de son impact - les sources potentielles d'états confusionnels et d'états anxieux La plupart des contenus proposés sont positifs. Les résultats suggèrent la coexistence possible de différents contenus à un moment donné ainsi que leur changement au cours du temps. Un modèle est ensuite développé et commenté pour présenter le diagnostic d'une maladie grave. Ce modèle est basé sur la littérature et intègre les résultats des études empiriques réalisées dans le cadre de ce travail. Ce travail analyse également les sources préférées d'information et de soutien, facteurs qui peuvent influencer ou faire obstacle aux préférences d'information et de participation. Les deux groupes de participants considèrent les médecins spécialistes comme la meilleure source d'information. En ce qui concerne le soutien, les points de vue divergent entre les personnes privées et les professionnels de la santé: généralement, les rôles de soutien semblent peu définis parmi les professionnels. Les barrières à l'information adéquate du patient apparaissent fréquemment liées aux caractéristiques des professionnels et aux problèmes d'organisation. Des progrès dans ce domaine contribueraient à améliorer les soins fournis aux patients. Finalement, les limites des études empiriques sont discutées. Celles-ci comprennent, entre autres, la représentativité restreinte des participants et les objections de certains groupes de participants à quelques détails des questionnaires. Summary The present thesis follows a call from the current body of literature to better understand patient needs for information and for participation in decision-making, as previous research findings had been contradictory. Information so far seems to have been considered essentially as a means to making treatment decisions, despite certain evidence that it may have a number of other values to patients. Furthermore, the thesis aims to identify ways to optimise meeting patient preferences for information and participation in treatment decisions. The current field of interest is palliative care. An extensive literature review depicts the background of current concepts of palliative care, patient information and patient involvement into treatment decisions. It also draws together results from previous studies and develops a theoretical model of information, decision-making, and the relationship between them. This is followed by two empirical studies collecting data from members of the general public and health care professionals by means of postal questionnaires. The professional study covers both Switzerland and the United Kingdom in order to identify possible differences between countries. Both studies focus on newly diagnosed lung cancer patients. The instruments used were taken from the literature to make them comparable. The response rate in both surveys was 30-40%, as expected -sufficient to allow stastical tests to be performed. A third study, addressed to lung cancer patients themselves, turned out to require too much time within the frame available. A majority of both study populations thought that patients should: - have a collaborative role in treatment-related decision-making -receive as much information as possible, good or bad - receive all types of information mentioned in the questionnaire (about illness, tests, and treatment), although priorities varied across the study populations - be supported by health professionals, family members, friends and/or others with the same illness Furthermore they identified various 'meanings' information may have to patients with a serious illness. These included: - being an aid in treatment-related decision-making - allowing control to be maintained over the situation - helping the patient-professional relationship to be constructed - allowing plans to be made - being positive for the patient's emotional state - helping the illness and its impact to be understood - being a source of anxiety - being a potential source of confusion to the patient Meanings were mostly positive. It was suggested that different meanings could co-exist at a given time and that they might change over time. A model of coping with the disclosure of a serious diagnosis is then developped. This model is based on existing models of coping with threatening events, as takeñ from the literature [ref. 77, 78], and integrates findings from the empirical studies. The thesis then analyses the remaining aspects apparent from the two surveys. These range from the identification of preferred information and support providers to factors influencing or impeding information and participation preferences. Specialist doctors were identified by both study populations as the best information providers whilst with regard to support provision views differed between the general public and health professionals. A need for better definition of supportive roles among health care workers seemed apparent. Barriers to information provision often seem related to health professional characteristics or organisational difficulties, and improvements in the latter field could well help optimising patient care. Finally, limitations of the studies are discussed, including questions of representativness of certain results and difficulties with or objections against questionnaire details by some groups of respondents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 1990 et la fin de la Guerre Froide, les Etats-Unis d'Amérique sont devenus la première puissance mondiale, animée par l'idéal de défendre les valeurs occidentale et de répandre la démocratie dans le monde. Or, entre des racines identitaires gréco-romaines empruntées à l'Europe, et les guerres menées au Moyen-Orient contre différents ennemis, la « mission » de l'Amérique suscite critiques et interrogations, et le conflit est autant culturel que militaire. L'Iliade d'Homère au contenu guerrier, érigée par la tradition littéraire en oeuvre fondatrice de l'Occident, offre aux penseurs américains de tous horizons un outil de réflexion propre à éclairer ce présent si inconfortable. A travers l'étude d'un corpus tripartite inédit, ce travail se propose de questionner le rôle d'une oeuvre symbolique de l'Antiquité grecque dans le monde d'aujourd'hui, et débouche sur une réflexion plus large touchant au sens contemporain des études classiques et à la transmission du savoir au sein de la culture populaire. Dans un premier temps, elle examine des ouvrages ou articles à vocation scientifique, mais publiés pour la plupart hors du cadre académique, qui théorisent et expriment les enjeux des guerres des cultures américaines (« culture wars ») divisant conservateurs et libéraux sur la mission véritable d'une éducation libérale. Ces ouvrages se servent également de l'Iliade comme d'un miroir où se reflète les conflits modernes, afin d'atténuer le trouble contemporain en juxtaposant passé et présent. Dans un deuxième temps sont abordés les médias journalistiques et informatiques, à l'aide des résultats obtenus lors de recherches poussées, effectuées dans les archives informatiques des journaux publiés dans les capitales et villes majeures des cinquante Etats américains. De fascinantes comparaisons entre la guerre de Troie et la guerre en Irak y sont notamment construites. Le discours sur l'actualité se développe par le recours à l'Antiquité, et en tire de nombreuses « leçons » destinées au gouvernement américain et à tous les meneurs de guerres. Et dans un troisième temps, deux romans de science-fiction, Ilium (2003) et sa suite Olympos (2005), de Dan Simmons, fournissent un fascinant complément littéraire au reste du corpus. Imprégnés par les culture wars, ils transposent l'Iliade dans un lointain futur et expriment sous une forme nouvelle toutes les interrogations brûlantes qui, aujourd'hui particulièrement, animent une Amérique troublée tant par ses guerres que par la remise en question de son identité occidentale. Par cette réunion de trois domaines dissemblables, ce travail pose aussi de nombreuses questions épistémologiques sur la circulation de l'information, la transformation des savoirs, le flou des frontières entre les genres, la révolution que représente Internet, et la fragmentation progressive de la bulle académique. Il propose également de nombreuses perspectives d'ouverture permettant de poursuivre cette recherche. Car la réception contemporaine de l'Iliade - et de l'Antiquité en général - est un domaine riche et dynamique, qui présente l'avantage - ou l'inconvénient, c'est selon - d'être toujours d'actualité. L'inconfort du présent ne devrait pas empêcher son étude, car les résultats sont extrêmement révélateurs de la véritable relation qu'entretiennent les hommes d'aujourd'hui - et non plus seulement les savants - avec leur passé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans la lignée des récents travaux de réévaluation de l'histoire des études cinématographiques. Son objectif est de réviser la conception actuelle de l'historiographie du cinéma en France de 1896 jusqu'au début des années 1950 en remettant en question la vision homogène du courant historique de l'histoire traditionnelle du cinéma telle que l'ont présentée les tenants de la nouvelle histoire du cinéma. Cette thèse se divise en trois parties. J'expose dans la première mon cadre et mon principal outil d'analyse. Je présente l'opération historiographique telle que définie par Michel de Certeau, soit comme le croisement d'un lieu social marqué par des cadres intellectuels dominants, d'un ensemble de procédures dont l'historien se sert pour sélectionner ses sources et construire les faits, et enfin, d'une écriture qui implique l'élaboration d'un système de relations entre les différents faits construits. Je décris ensuite les courants historiques en France des années 1870 jusqu'au début des années 1950. Ce panorama me permet de mieux identifier les échanges, les emprunts et les enrichissements qui se sont opérés entre l'histoire et l'histoire du cinéma durant cette période. Dans la deuxième partie, je « construis » depuis l'intérieur d'un vaste ensemble de discours d'historiens du cinéma, d'historiens de la culture et de théoriciens du cinéma ce qui deviendra la conception dominante de l'historiographie du cinéma. Je montre qu'elle est élaborée par ceux que plusieurs commentateurs nomment les nouveaux historiens du cinéma et qu'elle se réduit à la succession de deux grands courants historiques : l'histoire traditionnelle et la nouvelle histoire du cinéma. J'expose ensuite comment cet acte de périodisation est instrumentalisé par ceux qui l'effectuent. L'objectif des nouveaux historiens n'est pas d'exhumer la pluralité des écritures de l'histoire du cinéma, mais plutôt de mettre en évidence la rupture qu'ils opèrent au sein de l'historiographie du cinéma. L'examen de la place accordée au dispositif cinématographique Hale's Tours dans les histoires générales parues avant et après le Congrès de Brighton me permet finalement d'atténuer la rupture entre ces deux courants historiques. Dans la troisième partie, j'engage l'examen de plusieurs manières d'approcher l'histoire du cinéma. J'identifie différentes ruptures dans l'historiographie française du cinéma concernant l'objet historique que les historiens se donnent, les outils conceptuels qu'ils convoquent et leurs relations aux sources qu'ils utilisent. Ces études de cas me permettent au final de témoigner de la richesse de l'historiographie française du cinéma avant le début des années 1950.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The object of game theory lies in the analysis of situations where different social actors have conflicting requirements and where their individual decisions will all influence the global outcome. In this framework, several games have been invented to capture the essence of various dilemmas encountered in many common important socio-economic situations. Even though these games often succeed in helping us understand human or animal behavior in interactive settings, some experiments have shown that people tend to cooperate with each other in situations for which classical game theory strongly recommends them to do the exact opposite. Several mechanisms have been invoked to try to explain the emergence of this unexpected cooperative attitude. Among them, repeated interaction, reputation, and belonging to a recognizable group have often been mentioned. However, the work of Nowak and May (1992) showed that the simple fact of arranging the players according to a spatial structure and only allowing them to interact with their immediate neighbors is sufficient to sustain a certain amount of cooperation even when the game is played anonymously and without repetition. Nowak and May's study and much of the following work was based on regular structures such as two-dimensional grids. Axelrod et al. (2002) showed that by randomizing the choice of neighbors, i.e. by actually giving up a strictly local geographical structure, cooperation can still emerge, provided that the interaction patterns remain stable in time. This is a first step towards a social network structure. However, following pioneering work by sociologists in the sixties such as that of Milgram (1967), in the last few years it has become apparent that many social and biological interaction networks, and even some technological networks, have particular, and partly unexpected, properties that set them apart from regular or random graphs. Among other things, they usually display broad degree distributions, and show small-world topological structure. Roughly speaking, a small-world graph is a network where any individual is relatively close, in terms of social ties, to any other individual, a property also found in random graphs but not in regular lattices. However, in contrast with random graphs, small-world networks also have a certain amount of local structure, as measured, for instance, by a quantity called the clustering coefficient. In the same vein, many real conflicting situations in economy and sociology are not well described neither by a fixed geographical position of the individuals in a regular lattice, nor by a random graph. Furthermore, it is a known fact that network structure can highly influence dynamical phenomena such as the way diseases spread across a population and ideas or information get transmitted. Therefore, in the last decade, research attention has naturally shifted from random and regular graphs towards better models of social interaction structures. The primary goal of this work is to discover whether or not the underlying graph structure of real social networks could give explanations as to why one finds higher levels of cooperation in populations of human beings or animals than what is prescribed by classical game theory. To meet this objective, I start by thoroughly studying a real scientific coauthorship network and showing how it differs from biological or technological networks using divers statistical measurements. Furthermore, I extract and describe its community structure taking into account the intensity of a collaboration. Finally, I investigate the temporal evolution of the network, from its inception to its state at the time of the study in 2006, suggesting also an effective view of it as opposed to a historical one. Thereafter, I combine evolutionary game theory with several network models along with the studied coauthorship network in order to highlight which specific network properties foster cooperation and shed some light on the various mechanisms responsible for the maintenance of this same cooperation. I point out the fact that, to resist defection, cooperators take advantage, whenever possible, of the degree-heterogeneity of social networks and their underlying community structure. Finally, I show that cooperation level and stability depend not only on the game played, but also on the evolutionary dynamic rules used and the individual payoff calculations. Synopsis Le but de la théorie des jeux réside dans l'analyse de situations dans lesquelles différents acteurs sociaux, avec des objectifs souvent conflictuels, doivent individuellement prendre des décisions qui influenceront toutes le résultat global. Dans ce cadre, plusieurs jeux ont été inventés afin de saisir l'essence de divers dilemmes rencontrés dans d'importantes situations socio-économiques. Bien que ces jeux nous permettent souvent de comprendre le comportement d'êtres humains ou d'animaux en interactions, des expériences ont montré que les individus ont parfois tendance à coopérer dans des situations pour lesquelles la théorie classique des jeux prescrit de faire le contraire. Plusieurs mécanismes ont été invoqués pour tenter d'expliquer l'émergence de ce comportement coopératif inattendu. Parmi ceux-ci, la répétition des interactions, la réputation ou encore l'appartenance à des groupes reconnaissables ont souvent été mentionnés. Toutefois, les travaux de Nowak et May (1992) ont montré que le simple fait de disposer les joueurs selon une structure spatiale en leur permettant d'interagir uniquement avec leurs voisins directs est suffisant pour maintenir un certain niveau de coopération même si le jeu est joué de manière anonyme et sans répétitions. L'étude de Nowak et May, ainsi qu'un nombre substantiel de travaux qui ont suivi, étaient basés sur des structures régulières telles que des grilles à deux dimensions. Axelrod et al. (2002) ont montré qu'en randomisant le choix des voisins, i.e. en abandonnant une localisation géographique stricte, la coopération peut malgré tout émerger, pour autant que les schémas d'interactions restent stables au cours du temps. Ceci est un premier pas en direction d'une structure de réseau social. Toutefois, suite aux travaux précurseurs de sociologues des années soixante, tels que ceux de Milgram (1967), il est devenu clair ces dernières années qu'une grande partie des réseaux d'interactions sociaux et biologiques, et même quelques réseaux technologiques, possèdent des propriétés particulières, et partiellement inattendues, qui les distinguent de graphes réguliers ou aléatoires. Entre autres, ils affichent en général une distribution du degré relativement large ainsi qu'une structure de "petit-monde". Grossièrement parlant, un graphe "petit-monde" est un réseau où tout individu se trouve relativement près de tout autre individu en termes de distance sociale, une propriété également présente dans les graphes aléatoires mais absente des grilles régulières. Par contre, les réseaux "petit-monde" ont, contrairement aux graphes aléatoires, une certaine structure de localité, mesurée par exemple par une quantité appelée le "coefficient de clustering". Dans le même esprit, plusieurs situations réelles de conflit en économie et sociologie ne sont pas bien décrites ni par des positions géographiquement fixes des individus en grilles régulières, ni par des graphes aléatoires. De plus, il est bien connu que la structure même d'un réseau peut passablement influencer des phénomènes dynamiques tels que la manière qu'a une maladie de se répandre à travers une population, ou encore la façon dont des idées ou une information s'y propagent. Ainsi, durant cette dernière décennie, l'attention de la recherche s'est tout naturellement déplacée des graphes aléatoires et réguliers vers de meilleurs modèles de structure d'interactions sociales. L'objectif principal de ce travail est de découvrir si la structure sous-jacente de graphe de vrais réseaux sociaux peut fournir des explications quant aux raisons pour lesquelles on trouve, chez certains groupes d'êtres humains ou d'animaux, des niveaux de coopération supérieurs à ce qui est prescrit par la théorie classique des jeux. Dans l'optique d'atteindre ce but, je commence par étudier un véritable réseau de collaborations scientifiques et, en utilisant diverses mesures statistiques, je mets en évidence la manière dont il diffère de réseaux biologiques ou technologiques. De plus, j'extrais et je décris sa structure de communautés en tenant compte de l'intensité d'une collaboration. Finalement, j'examine l'évolution temporelle du réseau depuis son origine jusqu'à son état en 2006, date à laquelle l'étude a été effectuée, en suggérant également une vue effective du réseau par opposition à une vue historique. Par la suite, je combine la théorie évolutionnaire des jeux avec des réseaux comprenant plusieurs modèles et le réseau de collaboration susmentionné, afin de déterminer les propriétés structurelles utiles à la promotion de la coopération et les mécanismes responsables du maintien de celle-ci. Je mets en évidence le fait que, pour ne pas succomber à la défection, les coopérateurs exploitent dans la mesure du possible l'hétérogénéité des réseaux sociaux en termes de degré ainsi que la structure de communautés sous-jacente de ces mêmes réseaux. Finalement, je montre que le niveau de coopération et sa stabilité dépendent non seulement du jeu joué, mais aussi des règles de la dynamique évolutionnaire utilisées et du calcul du bénéfice d'un individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de maîtrise est présentée sous forme d’un article scientifique. Cet article sera soumis à la « Revue Canadienne de la pratique et de la recherche en diététique». Toutes les parties de la thèse sont rédigées en français conformément aux règlements de l’Université de Moncton. Les différentes sections qui composent cette thèse sont le Chapitre I : Recension des écrits, le Chapitre II: Cadre de la Recherche, le Chapitre III: Devis de recherche et le Chapitre IV: Article scientifique. Les conclusions et les recommandations de l’étude sont présentées à la fin de ces chapitres, suivies par les références et les annexes. La présente étude a été réalisée par l’étudiante à la maîtrise Edith Pereira sous la supervision de Mme Lita Villalon, Ph. D., directrice de thèse et professeure titulaire à l’École des Sciences des aliments, de nutrition et d’études familiales de l’Université de Moncton. L’étudiante à la maîtrise avait la responsabilité de faire les démarches nécessaires en vue de l’approbation du projet de recherche par le Comité national d’éthique en recherche pour la santé du Cap-Vert. Elle était aussi responsable de la cueillette des données. Ceci consistait en la prise de mesures anthropométriques, biochimiques et alimentaires auprès de l’échantillon à l’étude. De plus, l’étudiante a procédé à la compilation de toutes les données pour ensuite les analyser et les interpréter. Finalement, l’étudiante à la maîtrise a rédigé cette thèse ainsi que l’article scientifique. Le tout a été réalisé sous la supervision de Mme Lita Villalon, Ph.D.