983 resultados para Approche communicative


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The epithelial sodium channel (ENaC) regulates the sodium reabsorption in the collecting duct principal cells of the nephron. ENaC is mainly regulated by hormones such as aldosterone and vasopressin, but also by serine proteases, Na+ and divalent cations. The crystallization of an ENaC/Deg member, the Acid Sensing Ion Channel, has been recently published but the pore-lining residues constitution of ENaC internal pore remains unclear. It has been reported that mutation aS589C of the selectivity filter on the aENaC subunit, a three residues G/SxS sequence, renders the channel permeant to divalent cations and sensitive to extracellular Cd2+. We have shown in the first part of my work that the side chain of aSer589 residue is not pointing toward the pore lumen, permitting the Cd2+ to permeate through the ion pore and to coordinate with a native cysteine, gCys546, located in the second transmembrane domain of the gENaC subunit. In a second part, we were interested in the sulfhydryl-reagent intracellular inhibition of ENaC-mediated Na+ current. Kellenberger et al. have shown that ENaC is rapidly and reversibly inhibited by internal sulfhydryl reagents underlying the involvement of intracellular cysteines in the internal regulation of ENaC. We set up a new approach comprising a Substituted Cysteine Analysis Method (SCAM) using intracellular MTSEA-biotin perfusion coupled to functional and biochemical assays. We were thus able to correlate the cysteine-modification of ENaC by methanethiosulfonate (MTS) and its effect on sodium current. This allowed us to determine the amino acids that are accessible to intracellular MTS and the one important for the inhibition of the channel. RESUME : Le canal épithélial sodique ENaC est responsable de la réabsorption du sodium dans les cellules principales du tubule collecteur rénal. Ce canal est essentiellement régulé par voie hormonale via l'aldostérone et la vasopressine mais également par des sérines protéases, le Na+ lui-même et certains cations divalents. La cristallisation du canal sodique sensible au pH acide, ASIC, un autre membre de la famille ENaC/Deg, a été publiée mais les acides aminés constituant le pore interne d'ENaC restent indéterminés. Il a été montré que la mutation aS589C du filtre de sélectivité de la sous-unité aENaC permet le passage de cations divalents et l'inhibition du canal par le Cd2+ extracellulaire. Dans un premier temps, nous avons montré que la chaîne latérale de la aSer589 n'est pas orientée vers l'intérieur du pore, permettant au Cd2+ de traverser le canal et d'interagir avec une cysteine native du second domaine transrnembranaire de la sous-unité γENaC, γCys546. Dans un second temps, nous nous sommes intéressés au mécanisme d'inhibition d'ENaC par les réactifs sulfhydryl internes. Kellenberger et al. ont montré l'implication de cystéines intracellulaires dans la régulation interne d'ENaC par les réactifs sulfhydryl. Nous avons mis en place une nouvelle approche couplant la méthode d'analyse par substitution de cystéines (SCAM) avec des perfusions intracellulaires de MTSEAbiotine. Ainsi, nous pouvons meure en corrélation les modifications des cystéines d'ENaC par les réactifs methanethiosulfonates (MTS) avec leur effet sur le courant sodique, et donc mettre en évidence les acides aminés accessibles aux MTS intracellulaires et ceux qui sont importants dans la fonction du canal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Agir efficacement contre les incendies volontaires répétitifs représente un défi de taille pour la société et la police. Nous proposons d'utiliser l'intelligence-led policing et le cycle du renseignement comme cadre à une approche permettant une gestion et un suivi global et systématique de ces événements. Mais avant de pouvoir lancer ce processus, un certain nombre de défis doit être surmonté tel que la nature non spécifique des données. Il sera alors possible de mettre en place un processus qui permettra de faire des analyses pour obtenir une vision des incendies, détecter des situations répétitives et des liens entre les événements mettant en évidence des séries. Le renseignement obtenu par l'analyse des données rassemblées peut ensuite être utilisé pour mettre en place des moyens complémentaires d'enquête ou pour prendre des mesures préventives ou répressives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement dune candidose invasive est une complication hospitalière particulièrement redoutée en raison de sa mortalité élevée, comparable à celle du choc septique (40 %-60 %). La candidémie survient chez 0,05 % des patients hospitalisés, mais touche près de 1 % de ceux séjournant en réanimation, et est responsable de 5 à 10 % des bactériémies nosocomiales. Bien quune proportion élevée de patients hospitalisés soient colonisés par des levures du genre Candida, seule une minorité développe une candidose sévère. Celle-ci est toutefois difficile à diagnostiquer : les signes évocateurs dune dissémination ne surviennent habituellement que tardivement. Un traitement empirique précoce ou préemptif pourrait améliorer le pronostic, mais pour des raisons tant épidémiologiques quéconomiques, un tel traitement ne peut être appliqué à tous les patients à risque de développer une candidose sévère. Chez les patients présentant des facteurs de risque, la pratique de cultures de surveillance systématiques permet de déceler le développement dune colonisation et d'en quantifier le degré, de manière à ne débuter un traitement préemptif que lorsque lindex de colonisation dépasse un seuil critique prédictif d'infection secondaire. Ces éléments physiopathologiques et la mise à disposition des dérivés triazolés moins toxiques que l'amphotéricine B ont permis l'application de traitements prophylactiques. Chez les patients immunosupprimés, la généralisation de cette approche a été incriminée comme lun des éléments déterminant de lémergence dinfections à Candida non albicans dont le pronostic est moins favorable. Pour les patients de réanimation, une stricte limitation aux groupes soigneusement identifiés comme étant à risque élevé et chez lesquels lefficacité de la prophylaxie a pu être démontrée doit contribuer à limiter cet impact épidémiologique défavorable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Early-onset acquired epileptic aphasia (Landau-Kleffner syndrome) may present as a developmental language disturbance and the affected child may also exhibit autistic features. Landau-Kleffner is now seen as the rare and severe end of a spectrum of cognitive-behavioural symptoms that can be seen in idiopathic (genetic) focal epilepsies of childhood, the benign end being the more frequent typical rolandic epilepsy. Several recent studies show that many children with rolandic epilepsy have minor developmental cognitive and behavioural problems and that some undergo a deterioration (usually temporary) in these domains, the so-called "atypical" forms of the syndrome. The severity and type of deterioration correlate with the site and spread of the epileptic spikes recorded on the electroencephalogram within the perisylvian region, and continuous spike-waves during sleep (CSWS) frequently occur during this period of the epileptic disorder. Some of these children have more severe preexisting communicative and language developmental disorders. If early stagnation or regression occurs in these domains, it presumably reflects epileptic activity in networks outside the perisylvian area, i.e. those involved in social cognition and emotions. Longitudinal studies will be necessary to find out if and how much the bioelectrical abnormalities play a causal role in these subgroup of children with both various degrees of language and autistic regression and features of idiopathic focal epilepsy. One has to remember that it took nearly 40 years to fully acknowledge the epileptic origin of aphasia in Landau-Kleffner syndrome and the milder acquired cognitive problems in rolandic epilepsies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Le traitement du cancer avancé de la tête et du cou nécessite souvent une approche multidisciplinaire associant la chirurgie, la radiothérapie et la chimiothérapie. Chacun de ces traitements présente des avantages, des limites et des inconvénients. En raison de la localisation de la tumeur primaire et/ou des métastases ganglionnaires, les glandes salivaires majeures sont fréquemment touchées par les traitements oncologiques. La salive joue un rôle déterminant dans la cavité buccale car elle lubrifie les tissus et facilite à la fois la déglutition et l'élocution. Son contenu en électrolytes et en protéines, dont certaines possèdent un effet antibactérien, protège les dents de la déminéralisation par l'acidité. Une fonction normale, liée autant à la quantité qu'à la qualité de la salive, reste indispensable pour le maintien d'une bonne santé buccale. L'objectif de cette étude prospective a été de déterminer, dans un groupe homogène de patients, l'influence d'un traitement de radiothérapie sur divers paramètres salivaires comme la sécrétion, le pH et l'effet tampon, avant, pendant et jusqu'à un an après la fin du traitement. L'étude a aussi examiné le comportement de ces paramètres salivaires après une intervention chirurgicale seule au niveau de la tête et du cou, avec ou sans exérèse d'une glande sous- maxillaire. L'étude s'est basée sur 54 patients (45 hommes et 9 femmes) atteints d'un carcinome épidermoïde avancé avec une localisation oro-pharyngée confirmée (n = 50) ou soupçonnée (n = 4), adressés et investigués dans le Centre Hospitalier Universitaire Vaudois de Lausanne, Suisse. Tous ces patients furent traités par radiothérapie seule ou en combinaison avec une chirurgie et/ou une chimiothérapie. Trente-neuf des 54 patients parvinrent à la fin de cette étude qui s'est étendue jusqu'à 12 mois au-delà de la radiothérapie. La chirurgie de la tête et cou, en particulier après ablation de la glande sous-maxillaire, a révélé un effet négatif sur la sécrétion salivaire. Elle n'influence en revanche ni le pH, ni l'effet tampon de la salive. Cependant, l'effet sur la sécrétion salivaire lié à la chirurgie est progressivement masqué par l'effet de la radiothérapie et n'est plus identifiable après 3-6 mois. Dès le début de la radiothérapie, la sécrétion salivaire chût très manifestement pour diminuer progressivement jusqu'à 1/3 de sa capacité à la fin du traitement actinique. Une année après la fin de cette radiothérapie, la dysfonction salivaire est caractérisée par une diminution moyenne de la sécrétion salivaire, de 93 % (p < 0,0001) pour la salive au repos et de 95 % (p < 0.0001) pour la salive stimulée, par rapport aux valeurs pré-thérapeutiques. Le pH salivaire ainsi que l'effet tampon furent également influencés par le traitement actinique. L'effet tampon a présenté une diminution à 67 % à une année post-traitement en comparaison de sa valeur pré-thérapeutique. Le pH de la salive stimulée présente une légère, mais significative, diminution par rapport à sa valeur antérieure à la radiothérapie. En conclusion, la chirurgie des cancers de l'oropharynx précédant une radiothérapie a une influence négative sur la sécrétion salivaire sans aggraver l'hyposialie consécutive aux radiations ionisantes. Cette étude confirme qu'un traitement oncologique comprenant une irradiation totale des glandes salivaires majeures chez des patients atteints d'un carcinome épidermoïde avancé de la région oro-pharyngée, induit une perte sévère et à long terme de la sécrétion salivaire avec une altération du pH et de l'effet tampon Abstract: Objective. We sought to investigate the impact of head and neck cancer treatment on salivary function. Study design. The study was conducted on 54 patients with advanced squamous cell carcinoma with confirmed (n =50) or suspected (n = 4) primary oropharyngeal localization who were treated with radiation alone or in combination with surgery or chemotherapy, or both. The following groups were considered in the evaluation: 1, the entire pool of patients; 2, those undergoing surgery and those not undergoing surgery before radiation; 3, those undergoing resection and those not undergoing resection of the submandibular gland. The flow rates, pH, and buffering capacity were determined before, during, and up to 12 months after the completion of radiation. Results. Head and neck surgery, particularly when submandibular gland resection was performed, had a negative impact on salivary flow rates but did not influence pH or buffering capacity. Nonetheless, the effect of surgery on salivary flow rates decreased progressively and disappeared at 3 to 6 months after radiotherapy. More than two thirds of the salivary output was lost during radiation treatment. All patients were experiencing salivary dysfunction at 1 year after completion of radiotherapy, with average decreases of 93% (P < .0001) and 95% (P < .0001) for whole resting salivary flow and whole stimulated salivary flow, respectively, compared with the preradiotherapy values. The buffering capacity decreased to 67% of its preradiotherapy value, and whole stimulated saliva became acidic. Conclusions. The result of this study confirms that cancer treatment involving full-dose radiotherapy (RTH) to all major salivary glands for locally advanced squamous cell carcinoma of the oropharynx induces severe hyposalivation with alteration of salivary pH and buffering capacity. Head and neck surgery has a negative impact on salivary flow rates, especially when the submandibular gland is removed. However, surgery before irradiation is not a factor aggravating hyposalivation when postoperative radiotherapy includes all the major salivary glands.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : La prise en charge des patients avec hyperglycémie en soins aigus estdifficile et les erreurs de prescription d'insuline sont fréquentes. Notre objectifest de promouvoir l'évolution des pratiques vers une gestion efficace et sécuritairede l'hyperglycémie.Matériels et méthodes : Création d'un programme de formation structuré pourla gestion de l'hyperglycémie en soins aigus. Ce programme est le produit dumétissage entre le modèle de l'accompagnement thérapeutique et la systémiquedu management. Il vise l'acquisition d'une métacognition pour une réflexiontransversale face à l'hyperglycémie. Les objectifs spécifiques sont : comprendreles particularités de l'hyperglycémie en aigu ; gérer le basal/bolus ; argumenterle choix thérapeutique ; s'approprier l'outil sécuritaire d'aide à l'insulinothérapie ;anticiper la sortie du patient. Une analyse mixte a été effectuée : quantitative,glycémies, hypoglycémies, durée de séjour et qualitative, évolution de la réflexionautour de l'hyperglycémie.Résultats : Nov. 2009-2010, dans le Service de Médecine du CHUV, nous avonsdispensé 3 sessions de formation (15 cours), suivies d'une période de coaching,pour 78 internes. Évaluation quantitative : 85 patients (56,4 % H), âge moyen72,7 ± 9,6 ans, glycémies à J3 dans la cible (4-8,5 mmol/l) 44,6 %, glycémiemoyenne 8,5 ± 1,8 mmol/l, hypoglycémies 0,9 %, durée moyenne de séjour9,7 ± 5,4 J. Évaluation qualitative : choix du schéma thérapeutique pertinentdans la majorité des cas, environ 90 % des internes ont intégré les éléments depondération de l'insulinothérapie, estiment que cette formation a eu un impactpositif sur leur gestion, sont plus confiants dans leurs capacités et ont unmeilleur sentiment d'auto-efficacité. Les modalités pédagogiques adoptées ontfavorisé le transfert des compétences et le niveau de satisfaction globale atteint90 %.Conclusion : Le développement d'un programme de formation des soignants,basé sur l'approche réflexive et participative, permet une amélioration importantede la gestion de l'hyperglycémie. Notre projet s'inscrit dans une démarcheglobale visant à doter les bénéficiaires d'une vision systémique du diabète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : Lipid metabolism disorders, leading to obesity and cardiovascular diseases, are a major public health issue worldwide. These diseases have been treated by drugs and surgery, leading to tremendous costs and secondary morbidity. The aim of this thesis work is to investigate the mechanisms of actions of a new, micronutrition-based, approach to prevent obesity and cardiovascular diseases. This specific combination of micronutrients, Lipistase, incorporated into any dietary ail can be used in the daily food. Micronutrients are substances used by the living organism in small quantities to maintain physiological homeostasis. However, the human body is not able to produce them and has to obtain them from dietary sources. The combination of micronutrients investigated here, is composed of 26 compounds including trace elements, vitamins, minerals, ails and plant extracts, known to have individually a beneficial effect on lipid metabolism regulation. These specific micronutrients are used for the first time in a combinatorial mode targeting several metabolic pathways for better homeostasis control as opposed to a single target treatment, either chemical or natural. Short and long term studies, in different mouse strains, showed a significant decrease in plasma triglycerides, body weight gain and body fat mass in animals that were fed with a standard diet containing Lipistase. Additionally, a greatly reduced fat accumulation was observed in adipose tissue and liver of Lipistase-treated animals, while lipid and glucose utilization by skeletal muscle was enhanced. Moreover, the size of atherosclerotic plaques was significantly reduced in mice whose masher was treated during pregnancy and suckling, without showing any adverse effect. Finally, Lipistase has been shown to increase longevity by 20%. The control mice that did not receive Lipistase in their diet did not show all these beneficial effects. These micronutrients are used at the lowest dosage ever reported for treating Lipid disorders, resulting in far much lower costs as well as probably a higher safety. This is the first approach being very suitable for an effective large scale prevention policy for obesity and cardiovascular diseases, like iodine in dietary salt has been for goiter. Résumé : Les dysrégulations du métabolisme des lipids, à l'origine d'obésité et de maladies cardiovasculaires, sont un problème de santé publique majeur et mondial. Ces maladies impliquent des traitements médicamenteux et chirurgicaux dont le coût la morbidité secondaire sont très important. Le but de ce travail de thèse est d'étudier les mécanismes d'action d'une nouvelle approche préventive, basée sur la micronutrition. Cette combinaison spécifique de micronutriments, Lipistase, peut être incorporée dans n'importe quelle huile alimentaire et utilisée dans l'alimentation quotidienne. Les micronutrirnents sont des substances essentielles, à très faibles doses, pour le maintien de l'homéostasie physiologique des organismes vivants. Cependant, étant incapable de les synthétiser, le corps humain est dépendant en cela de l'apport alimentaire. La combinaison de micronutriments que nous avons étudié contient 26 composants, incluant des extraits de plantes, des huiles, des vitamines, des métaux et des minéraux, tous connus pour avoir individuellement des effets bénéfiques sur la régulation du métabolisme des lipides. Ces micronutriments spécifiques sont utilisés pour la première fois en mode combinatoire, ciblant ainsi plusieurs voies métaboliques pour un meilleur control de l'homéostasie, par opposition monothérapies chimiques ou naturelles. Des expériences de court et long terme, avec divers modèles de souris, ont montré une diminution significative des taux de triglycérides plasmatiques, de la prise de poids et de la masse graisseuse corporelle chez les animaux qui ont reçu Lipistase dans la nourriture standard. Une accumulation significativement moins importante des graisses a été observée dans le tissu adipeux et hépatique des souris traitées, alors que l'utilisation des lipides et glucose a été favorisée dans le muscle. En outre, la taille des plaques d'athérosclérose aété significativement réduite chez les souris dont la mère a été traitée pendant la grossesse et l'allaitement, sans montrer aucun effet indésirable. Enfin, les souris traitées par Lipistase ont vécu 20% plus longtèmps. Les souris contrôles qui n'ont pas reçu Lipistase dans la nourriture n'ont montré aucun de ces effets bénéfiques. Ces micronutriments sont utilisés au dosage le plus faible jamais rapporté pour le traitement des maladies du métabolisme lipidique, permettant ainsi un coût plus faible et surtout une meilleure sécurité. C'est une approche adéquate pour une politique de prévention de santé publique à large échelle de l'obésité et des maladies cardiovasculaires. C'est en cela et sous bien d'autres aspects, une première dans la prise en charge des maladies du métabolisme lipidique et pourrait même être pour ces dernières ce que l'iode du sel de cuisine a été pour le goitre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de la présente étude est d'identifier et d'analyser un certain nombre de mesures et de bouquets de mesures afin de cerner quelques pistes propres à améliorer la représentation des ressortissants des minorités linguistiques francophone ou germanophone au sein d'organisations étatiques ou paraétatiques suisses actives en contexte bilingue allemand-français. Pour ce faire, nous nous sommes appuyé sur la théorie de la bureaucratie représentative et ses promesses et avons recouru à une approche d'acteurs à deux niveaux, comprenant l'envoi d'un questionnaire et l'organisation d'entretiens d'approfondissement. Dix organisations ont ainsi été approchées : Confédération, cantons, communes, anciennes régies fédérales. Il a été possible d'identifier certains enjeux et de cerner un certain nombre de mesures performantes, souvent peu onéreuses en termes de finances et d'organisation ou relevant du bon sens, intervenant à différents moments du cycle de vie d'un emploi et susceptibles d'attirer ou de fidéliser des représentants de la minorité linguistique locale au sein d'une organisation. Il a également été possible de savoir pour quelles raisons certaines mesures sont régulièrement délaissées par les organisations approchées. D'autres ont pu être identifiées au fil d'entretiens, dont certaines sont en projet mais sont susceptibles de se heurter à des obstacles d'ordres divers. D'autres, enfin, sont appelées à se développer. Elles ne sauraient toutefois se passer de soutien politique et juridique, ni d'une certaine créativité, ni d'efforts constants. Ceux-ci déboucheront toutefois sur une organisation plus riche culturellement, s'avérant par ailleurs plus démocratique du fait qu'elle reflétera mieux les citoyens qu'elle administre. Cela, sans oublier une certaine philosophie de souplesse et de tolérance réciproque entre représentants de la minorité et de la majorité linguistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'agitation excessive de l'enfant questionne parents, enseignants et professionnels de la santé mentale. Ces derniers proposent de nombreux concepts et modèles théoriques qui tentent de rendre compte et d'expliquer la nature et l'origine des différents troubles du comportement. L'enfant et ses parents sont alors confrontés à des représentations théoriques d'apparence souvent contradictoire. Lors des entretiens cliniques avec la famille, le psychologue joue un rôle essentiel dans la mise en liens entre ces différentes représentations. Cette revue de la littérature présente, de façon synthétique, les principaux modèles sur les hyperactivités (neuropsychologiques, neurobiologiques, psychodynamiques, tempérament).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les recherches visant à élucider les bases neurales de l'adolescence ont émergé au cours des années 1990 pour s'imposer cette dernière décennie. Il est aujourd'hui accepté dans le champ des neurosciences cognitives et du développement que le cerveau continue à se développer après la 10eme année de vie et qu'il atteint un stade de maturation similaire à l'adulte seulement vers 25 ans. La configuration structurelle et fonctionnelle du cerveau spécifique à la période de l'adolescence impliquerait un manque de contrôle émotionnel, favorisant des comportements dits de prise de risques qui à la fois permettent l'acquisition de l'indépendance et provoquent des situations de mise en danger du jeune individu et de son entourage. Ses mêmes comportements, dans leur acception négative - consommation d'alcool et de stupéfiants, conduite en état d'ivresse, rapports sexuels non-protégés, port d'arme, etc. - mobilisent les politiques de prévention et de santé publique relatives à l'adolescence et à la jeunesse. Cette thèse qui retrace l'histoire du cerveau adolescent de la fin des années 1950 à nos jours se situe à l'intersection de ces deux thèmes d'intérêt scientifique et public. A partir d'une perspective d'histoire culturelle et sociale des sciences, elle approche les éléments expérimentaux, institutionnels et contextuels qui ont contribué à la construction d'une adolescence définie par son immaturité cérébrale, associée à des comportements dits à risque. Plus précisément, elle met en évidence, sous l'angle privilégié du genre, selon quelles modalités et quelles temporalités l'histoire des recherches scientifiques sur le développement cérébral humain à l'adolescence et celle du façonnage d'un type d'adolescent-e impulsif/ve et preneur/euse de risques - c'est-à-dire potentiellement délinquant, dépendant, invalide ou malade chronique, constitué en problème de politique et de santé publique - sont amenées à converger. L'argument développé est que le genre et le sexe sont des catégories actives dans la construction d'un cerveau adolescent idéalement unisexe. En d'autres termes, bien que le cerveau adolescent qualifie des individus en regard de leur âge, sans distinction apparente de sexe et de genre, les conditions de sa production et les critères de sa définition sont constitutivement genrés, notamment par des comportements à risque qui concernent une majorité de garçons. Il s'agit d'analyser comment du sexe et du genre peuvent produire de l'âge, a priori unisexe, et d'interroger les enjeux scientifiques, sociaux et politiques qui participent de cette invisibilisation des catégories de sexe et de genre. Le but est de considérer la manière dont l'adolescence cérébrale reconfigure la gestion des questions liées à l'adolescence et à la jeunesse, en termes de problèmes sanitaires et de délinquance, mais aussi en termes de reproduction des normes sociales, de ce qu'implique devenir un homme ou une femme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise-wide architecture has become a necessity for organizations to (re)align information technology (IT) to changing business requirements. Since a city planning metaphor inspired enterprise-wide architecture, this dissertation's research axes can be outlined by similarities between cities and enterprises. Both are characterized as dynamic super-systems that need to address the evolving interest of various architecture stakeholders. Further, both should simultaneously adhere to a set of principles to guide the evolution of architecture towards the expected benefits. The extant literature on enterprise-wide architecture not only disregards architecture adoption's complexities but also remains vague about how principles guide architecture evolution. To bridge this gap, this dissertation contains three interrelated research streams examining the principles and adoption of enterprise-wide architecture. The first research stream investigates organizational intricacies inherent in architecture adoption. It characterizes architecture adoption as an ongoing organizational adaptation process. By analyzing organizational response behaviors in this adaptation process, it also identifies four archetypes that represent very diverse architecture approaches. The second research stream ontologically clarifies the nature of architecture principles along with outlining new avenues for theoretical contributions. This research stream also provides an empirically validated set of principles and proposes a research model illustrating how principles can be applied to generate expected architecture benefits. The third research stream examines architecture adoption in multinational corporations (MNCs). MNCs are Specified by unique organizational characteristics that constantly strive for balancing global integration and local responsiveness. This research stream characterizes MNCs' architecture adoption as a continuous endeavor. This endeavor tries to constantly synchron ize architecture with stakeholders' beliefs about how to balance global integration and local responsiveness. To conclude, this dissertation provides a thorough explanation of a long-term journey in Which organizations learn over time to adopt an effective architecture approach. It also clarifies the role of principles to purposefully guide the aforementioned learning process. - L'Architecture d'Entreprise (AE) est devenue une nécessité pour permettre aux organisations de (ré)aligner les technologies de l'information (TI) avec les changements en termes de besoins métiers. En se basant sur la métaphore de la planification urbaine dont l'AE s'est inspirée, cette dissertation peut être présentée comme une comparaison entre les villes et les entreprises; les deux sont des super-systèmes dynamiques ayant besoin de répondre aux intérêts d'acteurs divers et variés en constants évolution. De plus, les deux devraient souscrire simultanément à un ensemble de principes afin de faire converger l'évolution de l'architecture vers les bénéfices attendus. La littérature sur l'AE, non seulement ne prend pas en considération les complexités de l'adoption d'architecture, mais aussi reste vague sur la manière dont les principes guident l'évolution de l'architecture. Pour pallier ce manque, cette dissertation est composée de trois volets de recherche étroitement liés examinant les principes et l'adoption de l'AE. Le premier volet examine la complexité organisationnelle inhérente à l'adoption de l'architecture. Il caractérise l'adoption de l'architecture en tant que processus d'adaptation continu. En analysant le comportement organisationnel en réponse à ce processus d'adaptation, ce volet distingue quatre archétypes représentant la diversité des approches de l'architecture. Le deuxième volet de recherche clarifie de manière ontologique la nature des principes d'architecture et envisage les contributions théoriques futures possibles. Cet axe de recherche fournit aussi un ensemble de principes, validés de manière empirique, et propose un modèle de recherche illustrant la manière dont ces principes peuvent être appliqués afin de générer les bénéfices attendus de l'architecture. Le troisième volet examine l'adoption de l'architecture dans les entreprises multinationales. Ces dernières possèdent des caractéristiques organisationnelles uniques et sont constamment à la recherche d'un équilibre entre une intégration globale et une flexibilité locale tout en prenant en compte les convictions des divers acteurs sur la manière d'atteindre cet équilibre. Pour conclure, cette dissertation fournit une explication sur le long voyage au cours duquel les entreprises apprennent à adopter une approche d'architecture efficace. Elle clarifie aussi le rôle des principes dans l'accompagnement de ce processus d'apprentissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse cible l'étude de la structure thermique de la croûte supérieure (<10km) dans les arcs magmatiques continentaux, et son influence sur l'enregistrement thermochronologique de leur exhumation et de leur évolution topographique. Nous portons notre regard sur deux chaînes de montagne appartenant aux Cordillères Américaines : Les Cascades Nord (USA) et la zone de faille Motagua (Guatemala). L'approche utilisée est axée sur la thermochronologie (U-Th-Sm)/He sur apatite et zircon, couplée avec la modélisation numérique de la structure thermique de la croûte. Nous mettons en évidence la variabilité à la fois spatiale et temporelle du gradient géothermique, et attirons l'attention du lecteur sur l'importance de prendre en compte la multitude des processus géologiques perturbant la structure thermique dans les chaînes de type cordillère, c'est à dire formées lors de la subduction océanique sous un continent.Une nouvelle approche est ainsi développée pour étudier et contraindre la perturbation thermique autour des chambres magmatiques. Deux profiles âge-elevation (U-Th-Sm)/He sur apatite et zircon, ont été collectées 7 km au sud du batholithe de Chilliwack, Cascades Nord. Les résultats montrent une variabilité spatiale et temporelle du gradient géothermique lors de l'emplacement magmatique qui peut être contrainte et séparé de l'exhumation. Durant l'emplacement de l'intrusion, la perturbation thermique y atteint un état d'équilibre (-80-100 °C/km) qui est fonction du flux de magma et de ia distance à la source du magma, puis rejoint 40 °C/km à la fin du processus d'emplacement magmatique.Quelques nouvelles données (U-Th)/He, replacées dans une compilation des données existantes dans les Cascades Nord, indiquent une vitesse d'exhumation constante (-100 m/Ma) dans le temps et l'espace entre 35 Ma et 2 Ma, associée à un soulèvement uniforme de la chaîne contrôlé par l'emplacement de magma dans la croûte durant toute l'activité de l'arc. Par contre, après ~2 Ma, le versant humide de la chaîne est affecté par une accélération des taux d'exhumation, jusqu'à 3 km de croûte y sont érodés. Les glaciations ont un triple effet sur l'érosion de cette chaîne: (1) augmentation des vitesses d'érosion, d'exhumation et de soulèvement la où les précipitations sont suffisantes, (2) limitation de l'altitude contrôlé par la position de Γ Ε LA, (3) élargissement du versant humide et contraction du versant aride de la chaîne.Les modifications des réseaux de drainage sont des processus de surface souvent sous-estimés au profil d'événements climatiques ou tectoniques. Nous proposons une nouvelle approche couplant une analyse géomorphologique, des données thermochronologiques de basse température ((U-Th-Sm)/He sur apatite et zircon), et l'utilisation de modélisation numérique thermo-cinématique pour les mettre en évidence et les dater; nous testons cette approche sur la gorge de la Skagit river dans les North Cascades.De nouvelles données (U-Th)/He sur zircons, complétant les données existantes, montrent que le déplacement horizontal le long de la faille transformante continentale Motagua, la limite des plaques Caraïbe/Amérique du Nord, a juxtaposé un bloc froid, le bloc Maya (s.s.), contre un bloque chaud, le bloc Chortis (s.s.) originellement en position d'arc. En plus de donner des gammes d'âges thermochronologiques très différents des deux côtés de la faille, le déplacement horizontal rapide (~2 cm/a) a produit un fort échange thermique latéral, résultant en un réchauffement du côté froid et un refroidissement du côté chaud de la zone de faille de Motagua.Enfin des données (U-Th-Sm)/He sur apatite témoignent d'un refroidissement Oligocène enregistré uniquement dans la croûte supérieure de la bordure nord de la zone de faille Motagua. Nous tenterons ultérieurement de reproduire ce découplage vertical de la structure thermique par la modélisation de la formation d'un bassin transtensif et de circulation de fluides le long de la faille de Motagua. - This thesis focuses on the influence of the dynamic thermal structure of the upper crust (<10km) on the thermochronologic record of the exhumational and topographic history of magmatic continental arcs. Two mountain belts from the American Cordillera are studied: the North Cascades (USA) and the Motagua fault zone (Guatemala). I use a combined approach coupling apatite and zircon (U-Th-Sm}/He thermochronology and thermo- kinematic numerical modelling. This study highlights the temporal and spatial variability of the geothermal gradient and the importance to take into account the different geological processes that perturb the thermal structure of Cordilleran-type mountain belts (i.e. mountain belts related to oceanic subduction underneath a continent}.We integrate apatite and zircon (U-Th)/He data with numerical thermo-kinematic models to study the relative effects of magmatic and surface processes on the thermal evolution of the crust and cooling patterns in the Cenozoic North Cascades arc (Washington State, USA). Two age-elevation profiles that are located 7 km south of the well-studied Chiliiwack intrusions shows that spatial and temporal variability in geothermal gradients linked to magma emplacement can be contrained and separated from exhumation processes. During Chiliiwack batholith emplacement at -35-20 Ma, the geothermal gradient of the country rocks increased to a very high steady-state value (80-100°C/km), which is likely a function of magma flux and the distance from the magma source area. Including temporally varying geothermal gradients in the analysis allows quantifying the thermal perturbation around magmatic intrusions and retrieving a relatively simple denudation history from the data.The synthesis of new and previously published (U-Th)/He data reveals that denudation of the Northern Cascades is spatially and temporally constant at -100 m/Ma between ~32 and ~2 Ma, which likely reflects uplift due to magmatic crustal thickening since the initiation of the Cenozoic stage of the continental magmatic arc. In contrast, the humid flank of the North Cascades is affected by a ten-fold acceleration in exhumation rate at ~2 Ma, which we interpret as forced by the initiation of glaciations; around 3 km of crust have been eroded since that time. Glaciations have three distinct effects on the dynamics of this mountain range: (1) they increase erosion, exhumation and uplift rates where precipitation rates are sufficient to drive efficient glacial erosion; (2) they efficiently limit the elevation of the range; (3) they lead to widening of the humid flank and contraction of the arid flank of the belt.Drainage reorganizations constitute an important agent of landscape evolution that is often underestimated to the benefit of tectonic or climatic events. We propose a new method that integrates geomorphology, low-temperature thermochronometry (apatite and zircon {U-Th-Sm)/He), and 3D numerical thermal-kinematic modelling to detect and date drainage instability producing recent gorge incision, and apply this approach to the Skagit River Gorge, North Cascades.Two zircon (U-Th)/He age-elevation profiles sampled on both sides of the Motagua Fault Zone (MFZ), the boundary between the North American and the Caribbean plates, combined with published thermochronological data show that strike-slip displacement has juxtaposed the cold Maya block (s.s.) against the hot, arc derived, Chortis block (s.s ), producing different age patterns on both sides of the fault and short-wavelength lateral thermal exchange, resulting in recent heating of the cool side and cooling of the hot side of the MFZ.Finally, an apatite (U-Th-Sm)/He age-elevation profile records rapid cooling at -35 Ma localized only in the upper crust along the northern side of the Motagua fault zone. We will try to reproduce these data by modeling the thermal perturbation resulting from the formation of a transtensional basin and of fluid flow activity along a crustal- scale strike-slip fault.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les Pays-Bas et la Suisse sont souvent décrits comme ayant des relations entre travail et capital similaires, marquées par des négociations et le compromis. La conviction est courante dans les deux pays qu'il y a une tendance constante au consensus et au compromis dans l'histoire nationale. Cette thèse livre une comparaison historique du développement des relations de classe dans la 1ers moitié du 20eme siècle. Une attention particulière est donnée aux confrontations sévères et partiellement violentes entre les classes qui ont eu lieu pendant et juste après la Première Guerre Mondiale. Dans la crise des années trente, les deux pays ont longtemps maintenu l'attachement à une politique de déflation, ce qui a mené à une nouvelle accentuation des tensions sociales. Dans ce contexte, loin d'être prêts à faire des concessions au mouvement ouvrier, d'importantes composantes du patronat néerlandais et suisse sympathisaient avec un corporatisme autoritaire comme il était prôné par les mouvements et régimes fascistes. Des alliances entre le mouvement ouvrier socialiste et des fractions importantes des classes moyennes étaient capables d'arrêter cette dérive autoritaire, sans avoir assez de force pour imposer leurs propres alternatives. C'est seulement après l'affaiblissement de la droite dure entre la deuxième moitié des années trente et l'immédiat après-guerre que des premiers fondements pour un compromis de classe stable ont été établis. Généralement, l'approche comparée de la thèse permet de mieux saisir les histoires nationales dans leur contexte européen et global et permet donc de dépasser une vue de l'histoire nationale comme «cas spécial».¦Die Beziehungen zwischen Arbeit und Kapital in Niederlande und die Schweiz werden oft als âhnlich und stark von Verhandlungen und von Kompromissen geprâgt beschrieben. In beiden Lândern ist die Auffassung weitverbreitet, dass es in der nationalen Geschichte eine konstante Tendenz zum Konsens und zum Kompromiss gebe. Diese Dissertation bietet einen historischen Vergleich der Entwicklung der Klassenbeziehungen in der ersten Hâlfte des 20. Jahrhunderts. Thematisiert werden insbesondere die ernsthaften und teilweise gewalttàtigen Zusammenstôsse zwischen den Klassen, die sich wàhrend und unmittelbar nach dem Ersten Weltkrieg ereigneten. In der Krise der Dreissigerjahre hielten beide Staaten lange an der Deflationspolitik fest, was erneut zu einer Verschârfung der sozialen Spannungen fïïhrte. Vor diesem Hintergrund lehnten weite Teile der schweizerischen und niederlândischen Grossunternehmer Konzessionen gegenuber der Arbeiterbewegung ab. Vielmehr sympathisierten sie mit einem autoritàren Korporatismus, wie er von den faschistischen Bewegungen und Regimes vertreten wurde. Allianzen zwischen der sozialistischen Arbeiterbewegung und Teilen der Mittelschichten gelang es zwar, diese autoritàren Tendenzen aufzuhalten, nicht aber ihre eigenen Alteraativkonzepte durchzusetzen. Erst nach der Schwâchung der radikalen Rechten in der Zeit zwischen der zweiten Hàlfte der 1930er Jahre und der unmittelbaren Nachkriegszeit nach dem Zweiten Weltkrieg fand sich eine¦Grundlage fur einen stabilen Klassenkompromiss. Generell ermôglicht es der vergleichende Ansatz der Dissertation, die nationale Geschichte in ihrem europâischen und globalen Kontext zu sehen und so eine Sicht auf die Geschichte eines einzelnen Landes als ,,Sonderfall" zu uberwinden.