662 resultados para Décharge à pression atmosphérique
Resumo:
La trachée et les bronches proximales sont de fins conduits subtils, ingénieusement structurés par une partie cartilagineuse antérieure résistante aux variations de pression et une partie membraneuse postérieure souple. Par leurs faibles volumes (espace mort) ils délivrent un grand pourcentage de l'air inspiré aux voies distales, puis au parenchyme pulmonaire, permettant les échanges de gaz. Cette belle harmonie respiratoire peut être rapidement mise à mal dès qu'un processus atteint ces voies respiratoires proximales, soit en les comprimant, processus sténosant, soit en affaiblissant leur structure, trachéo-bronchomalacie, soit en ouvrant leur paroi sur les structures médiastinales, fistule trachéo/broncho-médiastinales, pleurales ou autres. Le pronostic vital est alors rapidement engagé au vu de l'absolue nécessité du bon fonctionnement de ces fins conduits, une petite diminution du calibre de leurs fines lumières provoquant une baisse importante de leurs surfaces. Dans ces situations à haut potentiel de complication majeure les interventions endoscopiques pour restaurer l'intégrité de ces conduits sont alors fort risquées, et il est primordial de pouvoir les effectuer dans un cadre sécurisé au maximum. La réalisation de ces gestes par la technique décrite dans notre article « Use of combined suspension laryngoscopy, flexible bronchoscopy and high frequency jet ventilation forY-shaped airway stents delivery" permet la sécurité nécessaire à ces situations instable, en effet -la laryngoscopie en suspension expose les voies proximales en offrant un accès le plus large possible à l'arbre trachéobronchique ce qui permet l insertion de multiples instruments parfois volumineux, -la Jet ventilation assure une oxygénation et une ventilation adéquate par un fin cathéter placé soit dans le poumon sain, soit en distalité de la lésion -la bronchoscopie souple, passant au travers d'endroits exigus et courbes permet le déploiement sous vision direct, au millimètre près, de divers dispositifs. Cette association remplace avantageusement la technique traditionnelle qui insère les stents à l'aveugle, et en apnée, ce qui représente de haut risque de mauvais positionnement des stents avec des conséquences immédiates sur l'oxygénation et la ventilation souvent déjà bien altérées. Perspective et conclusion : cette technique est utile pour l'insertion des stents en Y, centraux, comme décrit dans notre article, et les indications peuvent être étendues aux stents distaux pour lesquels l'accès n'est parfois pas aisé avec le bronchoscope rigide, et pour d'autres interventions endoscopiques, laser, cryothérapie, radiofréquence ou l'insertion de nouveaux dispositifs.
Resumo:
L'échec des tentatives de juguler les émissions globales de gaz à effet de serre a mené au renforcement d'un discours sur la nécessité de l'adaptation au changement climatique. Il est de plus souvent considéré qu'une transformation de l'action publique serait nécessaire afin de réduire les impacts de grande magnitude qui découlent du changement climatique. Depuis les années 2000, on constate ainsi un développement des activités étatiques dans le domaine de l'adaptation. Cette évolution suscite une question centrale: quels sont les effets réels que provoque l'intégration de l'adaptation au changement climatique dans la conduite des politiques publiques et comment expliquer les éventuelles limites à ces processus? La littérature spécialisée sur l'adaptation fait preuve d'un certain réductionnisme à l'égard de la complexité de l'action publique en considérant que lorsque la capacité d'agir contre le problème de la vulnérabilité au changement climatique existe, toute forme d'inaction publique serait un déficit de mise en oeuvre provoqué par des barrières à l'action qu'il faudrait lever. A contrario, cette thèse considère l'adaptation comme une norme de politique publique dont l'intégration est susceptible de provoquer des changements institutionnels dans la forme et le contenu des politiques publiques, et des effets concrets sur les acteurs vulnérables au changement climatique. Afin de mesurer les effets de l'intégration politique de l'adaptation, un concept est formulé sur la base d'un idéal-type du régime institutionnel adaptatif, soit une construction théorique des régulations qu'impliquerait une gestion cohérente du système socioécologique complexe dans lequel s'insère le système climatique. L'auteur propose un cadre d'analyse empirique des processus publics d'adaptation qu'il applique ensuite à deux États: l'Inde (politique agricole) et la Suisse (politique du tourisme hivernal), avec pour objectif de repérer des mécanismes explicatifs communs aux effets de l'intégration dans ces deux contextes extrêmement dissemblables. L'étude débouche sur six résultats qui constituent une contribution appréciable à la littérature. L'auteur montre: premièrement, que l'intégration politique de l'adaptation conduit à une production d'actes symboliques, qui s'explique notamment par le manque de pression publique à agir sur le problème de la vulnérabilité au changement climatique; deuxièmement, que le processus d'intégration agit sur la réalité sociale par le biais d'un mécanisme d'attribution de ressources publiques à certains acteurs du champ politique; troisièmement, que les groupes sociaux qui bénéficient de ces ressources publiques ne sont pas nécessairement les plus vulnérables, mais ceux détenant les ressources d'action nécessaires à l'activation de l'intervention publique; quatrièmement, que l'absence de clefs de répartition des coûts de l'adaptation, de procédures de monitoring et d'instruments d'action contraignants limitent les effets des programmes publics d'adaptation; cinquièmement, que la faible articulation institutionnelle entre objectif d'adaptation et objectifs de protection de l'environnement accentue le risque de processus d'adaptation produisant des externalités environnementales; sixièmement, que les transformations dont la littérature souligne la nécessité ne sont pas nécessairement faisables ni désirables. Sur la base de cette analyse, cette thèse s'écarte de la littérature dominante en concluant que les processus publics d'adaptation ne souffrent pas d'un déficit de mise en oeuvre, mais d'un déficit de légitimité lié à leurs effets pernicieux. L'auteur formule alors trois recommandations pour améliorer la légitimité de ces politiques et trois questions ouvertes sur le futur politique de l'adaptation.
Resumo:
Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
RÉSUMÉ Le système rénine-angiotensine joue un rôle prépondérant dans la régulation de la pression sanguine et de la balance des sels ainsi que dans d'autres processus physiologiques et pathologiques. Lorsque la pression sanguine est trop basse, les cellules juxtaglomérulaires sécrètent la rénine, qui clivera l'angiotensinogène circulant (sécrété majoritairement par le foie) pour libérer l'angiotensine I, qui sera alors transformée en angiotensine II par l'enzyme de conversion de l'angiotensine. Ce système est régulé au niveau de la sécrétion de la rénine par le rein. La rénine est une enzyme de type protéase aspartique. Elle est produite sous la forme d'un précurseur inactif de haut poids moléculaire appelé prorénine, qui peut être transformé en rénine active. Si le rôle de la prorégion de la rénine n'est pas encore connu, plusieurs études ont montré qu'elle pourrait être un auto-inhibiteur. Des travaux menés sur d'autres enzymes protéolytique ont mis en évidence un rôle de chaperon de leurs prorégions. Dans la circulation, la prorénine est majoritaire (90%) et la rénine active ne représente que 10% de la rénine circulante. L'enzyme qui transforme, in vivo, la prorénine en rénine active n'est pas connue. De même, l'endroit précis du clivage n'est pas élucidé. Dans ce travail, nous avons généré plusieurs mutants de la prorénine et les avons exprimés dans deux types cellulaires : les CV1 (modèle constitutif) et AtT-20 (modèle régulé). Nous avons montré que la prorégion joue un rôle important aussi bien dans l'acquisition de l'activité enzymatique que dans la sécrétion de la rénine, mais fonctionne différemment d'un type cellulaire à l'autre. Nous avons montré pour la première fois que la prorégion interagit de façon intermoléculaire à l'intérieur de la cellule. Les expériences de complémentation montre que l'interaction favorable de la rénine avec la prorégion dépend de la taille de cette dernière : prorénine (383 acides aminés) > pro62 (62 acides aminés) > pro43 (43 acides aminés). Par ailleurs nos résultats montrent qu'une faible partie de la rénine est dirigée vers la voie de sécrétion régulée classique tandis que la majorité est dirigée vers les lysosomes. Ceci suggère qu'une internalisation de la rénine circulante via le récepteur mannose-6-phosphate est possible. Cette dernière concernerait essentiellement la prorénine (dont les taux circulants sont 10 fois plus élevés que la rénine active). La suite de ce travail porterait sur la confirmation de cette hypothèse et l'identification de son possible rôle physiologique. SUMMARY The renin-angiotensin system is critical for the control of blood pressure and salt balance and other physiological and pathological processes. When blood pressure is too low, renin is secreted by the juxtaglomerular cells. It will cleave the N-terminus of circulating angiotensinogen (mostly secreted by the liver) to angiotensin-1, which is then transformed in angiotensin-II by the angiotensin-converting-enzyme (ACE). This system is regulated at the level of renin release. Renin, an aspartyl protease, is produced from a larger precursor (called prorenin) which is matured into active renin. Although the role of the renin proregion remains unknown, it has been reported that it could act as an autoinhibitor. Works on other proteolytic enzymes showed that their prorégion can act as chaperones. prorenin is the major circulating form of renin, while active renin represents only 10%. The enzyme which transforms, in vivo, the prorenin into active renin is unknown and the exact cleavage site remains to be elucidated. In this study, we generated some prorenin mutants, which were expressed in CV1 cells (constitutive pathway model) or AtT-20 cells (regulated pathway model). We showed that the proregion plays a pivotal role in the enzymatic activity and secretion of renin in a different manner in the two cell types. For the first time, it has been demonstrated that the proregion acts in an intermolecular way into the cell. Complementation assays showed that interaction between renin and proregion depends on the size of the proregion: prorenin (383 amino acids) > pro62 (62 amino acids) > pro43 (43 amino acids). Furthermore, our results showed that only a small amount of the cellular renin pool is targeted to the "canonical" regulated pathway and that the remaining is targeted to the lysosomes. Those results suggest a possible internalizátion of the circulating renin through the mannose-6-phosphate receptor pathway. This would mostly concern the prorenin (whose levels are ten times higher than active renin). Further studies would confirm or infirm this hypothesis and elucidate a potential physiological role.
Resumo:
Les coûts de traitement de certains patients s'avèrent extrêmement élevés, et peuvent faire soupçonner une prise en charge médicale inadéquate. Comme I'évolution du remboursement des prestations hospitalières passe à des forfaits par pathologie, il est essentiel de vérifier ce point, d'essayer de déterminer si ce type de patients peut être identifié à leur admission, et de s'assurer que leur devenir soit acceptable. Pour les années 1995 et 1997. les coûts de traitement dépassant de 6 déviations standard le coût moyen de la catégorie diagnostique APDRG ont été identifiés, et les dossiers des 50 patients dont les coûts variables étaient les plus élevés ont été analysés. Le nombre total de patients dont I'hospitalisation a entraîné des coûts extrêmes a passé de 391 en 1995 à 328 patients en 1997 (-16%). En ce qui concerne les 50 patients ayant entraîné les prises en charge les plus chères de manière absolue, les longs séjours dans de multiples services sont fréquents, mais 90% des patients sont sortis de l'hôpital en vie, et près de la moitié directement à domicile. Ils présentaient une variabilité importante de diagnostics et d'interventions, mais pas d'évidence de prise en charge inadéquate. En conclusion, les patients qualifiés de cas extrêmes sur un plan économique, ne le sont pas sur un plan strictement médical, et leur devenir est bon. Face à la pression qu'exercera le passage à un mode de financement par pathologie, les hôpitaux doivent mettre au point un système de revue interne de I'adéquation des prestations fournies basées sur des caractéristiques cliniques, s'ils veulent garantir des soins de qualité. et identifier les éventuelles prestations sous-optimales qu'ils pourraient être amenés à délivrer. [Auteurs] Treatment costs for some patients are extremely high and might let think that medical care could have been inadequate. As hospital financing systems move towards reimbursement by diagnostic groups, it is essential to assess whether inadequate care is provided, to try to identify these patients upon admission, and make sure that their outcome is good. For the years 1995 and 1997, treatment costs exceeding by 6 standard deviations the average cost of their APDRG category were identified, and the charts of the 50 patients with the highest variable costs were analyzed. The total number of patients with such extreme costs diminished from 391 in 1995 to 328 in 1997 (-16%). For the 50 most expensive patients, long stays in several services were frequent, but 90% of these patients left the hospital alive, and about half directly to their home. They presented an important variation in diagnoses and operations, but no evidence for inadequate care. Thus, patients qualified as extreme from an economic perspective cannot be qualified as such from a medical perspective, and their outcome is good. To face the pressure linked with the change in financing system, hospitals must develop an internal review system for assessing the adequacy of care, based on clinical characteristics, if they want to guarantee good quality of care and identify potentially inadequate practice.
Resumo:
Kidneys are the main regulator of salt homeostasis and blood pressure. In the distal region of the tubule active Na-transport is finely tuned. This transport is regulated by various hormonal pathways including aldosterone that regulates the reabsorption at the level of the ASDN, comprising the late DCT, the CNT and the CCD. In the ASDN, the amiloride-sensitive epithelial Na-channel (ENaC) plays a major role in Na-homeostasis, as evidenced by gain-of function mutations in the genes encoding ENaC, causing Liddle's syndrome, a severe form of salt-sensitive hypertension. In this disease, regulation of ENaC is compromised due to mutations that delete or mutate a PY-motif in ENaC. Such mutations interfere with Nedd4-2- dependent ubiquitylation of ENaC, leading to reduced endocytosis of the channel, and consequently to increased channel activity at the cell surface. After endocytosis ENaC is targeted to the lysosome and rapidly degraded. Similarly to other ubiquitylated and endocytosed plasma membrane proteins (such as the EGFR), it is likely that the multi-protein complex system ESCRT is involved. To investigate the involvement of this system we tested the role of one of the ESCRT proteins, Tsg101. Here we show that Tsg101 interacts endogenously and in transfected HEK-293 cells with all three ENaC sub-units. Furthermore, mutations of cytoplasmic lysines of ENaC subunits lead to the disruption of this interaction, indicating a potential involvement of ubiquitin in Tsg101 / ENaC interaction. Tsg101 knockdown in renal epithelial cells increases the total and cell surface pool of ENaC, thus implying TsglOl and consequently the ESCRT system in ENaC degradation by the endosomal/lysosomal system. - Les reins sont les principaux organes responsables de la régulation de la pression artérielle ainsi que de la balance saline du corps. Dans la région distale du tubule, le transport actif de sodium est finement régulé. Ce transport est contrôlé par plusieurs hormones comme l'aldostérone, qui régule la réabsorption au niveau de l'ASDN, segment comprenant la fin du DCT, le CNT et le CCD. Dans l'ASDN, le canal à sodium épithélial sensible à l'amiloride (ENaC) joue un rôle majeur dans l'homéostasie sodique, comme cela fut démontré par les mutations « gain de fonction » dans les gênes encodant ENaC, causant ainsi le syndrome de Liddle, une forme sévère d'hypertension sensible au sel. Dans cette maladie, la régulation d'ENaC est compromise du fait des mutations qui supprime ou mute le domaine PY présent sur les sous-unités d'ENaC. Ces mutations préviennent l'ubiquitylation d'ENaC par Nedd4-2, conduisant ainsi à une baisse de l'endocytose du canal et par conséquent une activité accrue d'ENaC à la surface membranaire. Après endocytose, ENaC est envoyé vers le lysosome et rapidement dégradé. Comme d'autres protéines membranaires ubiquitylées et endocytées (comme l'EGFR), il est probable que le complexe multi-protéique ESCRT est impliqué dans le transport d'ENaC au lysosome. Pour étudier l'implication du système d'ESCRT dans la régulation d'ENaC nous avons testé le rôle d'une protéine de ces complexes, TsglOl. Notre étude nous a permis de démontrer que TsglOl se lie aux trois sous-unités ENaC aussi bien en co-transfection dans des cellules HEK-293 que de manière endogène. De plus, nous avons pu démontrer l'importance de l'ubiquitine dans cette interaction par la mutation de toutes les lysines placées du côté cytoplasmique des sous-unités d'ENaC, empêchant ainsi l'ubiquitylation de ces sous-unités. Enfin, le « knockdown » de TsglOl dans des cellules épithéliales de rein induit une augmentation de l'expression d'ENaC aussi bien dans le «pool» total qu'à la surface membranaire, indiquant ainsi un rôle pour TsglOl et par conséquent du système d'ESCRT dans la dégradation d'ENaC par la voie endosome / lysosome. - Le corps humain est composé d'organes chacun spécialisé dans une fonction précise. Chaque organe est composé de cellules, qui assurent la fonction de l'organe en question. Ces cellules se caractérisent par : - une membrane qui leur permet d'isoler leur compartiment interne (milieu intracellulaire ou cytoplasme) du liquide externe (milieu extracellulaire), - un noyau, où l'ADN est situé, - des protéines, sortent d'unités fonctionnelles ayant une fonction bien définie dans la cellule. La séparation entre l'extérieure et l'intérieure de la cellule est essentielle pour le maintien des composants de ces milieux ainsi que pour la bonne fonction de l'organisme et des cellules. Parmi ces composants, le sodium joue un rôle essentiel car il conditionne le maintien de volume sanguin en participant au maintien du volume extracellulaire. Une augmentation du sodium dans l'organisme provoque donc une augmentation du volume sanguin et ainsi provoque une hypertension. De ce fait, le contrôle de la quantité de sodium présente dans l'organisme est essentiel pour le bon fonctionnement de l'organisme. Le sodium est apporté par l'alimentation, et c'est au niveau du rein que va s'effectuer le contrôle de la quantité de sodium qui va être retenue dans l'organisme pour le maintien d'une concentration normale de sodium dans le milieu extracellulaire. Le rein va se charger de réabsorber toutes sortes de solutés nécessaires pour l'organisme avant d'évacuer les déchets ou le surplus de ces solutés en produisant l'urine. Le rein va se charger de réabsorber le sodium grâce à différentes protéines, parmi elle, nous nous sommes intéressés à une protéine appelée ENaC. Cette protéine joue un rôle important dans la réabsorption du sodium, et lorsqu'elle fonctionne mal, comme il a pu être observé dans certaines maladies génétiques, il en résulte des problèmes d'hypo- ou d'hypertension. Les problèmes résultant du mauvais fonctionnement de cette protéine obligent donc la cellule à réguler efficacement ENaC par différents mécanismes, notamment en diminuant son expression et en dégradant le « surplus ». Dans cette travail de thèse, nous nous sommes intéressés au mécanisme impliqué dans la dégradation d'ENaC et plus précisément à un ensemble de protéines, appelé ESCRT, qui va se charger « d'escorter » une protéine vers un sous compartiment à l'intérieur de la cellule ou elle sera dégradée.
Resumo:
Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.
Resumo:
Résumé De nombreuses recommandations nationales et internationales sont publiées régulièrement qui définissent la manière dont les patients hypertendus devraient être pris en charge. Ces recommandations sont-elles suivies et applicables ? Dans cette étude transverse effectuée à la PMU à Lausanne, nous avons évalué la qualité de la prise en charge de 225 patients hypertendus suivis par des assistants en formation de médecine de premier recours. Ces 225 patients ont été retenus après une sélection de 1044 dossiers de la consultation générale de la PMU. Les résultats montrent que la moyenne des 3 dernières pressions artérielles était contrôlée dans 32,4% des cas à moins de 140/90 mmHg (TA systolique contrôlée à 42% et TA diastolique à 58%). 60% des patients ont eu une mesure de pression à chacune des 3 dernières consultations. 79% des mesures se terminaient par 0 ou par 5(théoriquement 20%). Le contrôle de la pression artérielle n'était pas statistiquement différent quelles que soient les comorbidités connues (diabète, insuffisance rénale ou insuffisance cardiaque). En conclusion, la qualité de la mesure et de la prise en charge de la TA par les médecins de premier recours en formation est comparable à celle retrouvée en pratique ambulatoire et pourrait être améliorée. Les recommandations basées sur la stratification des FRCV se heurtent à des problèmes dans leur application pratique. Le contrôle de la TA n'est pas meilleur chez les patients à haut risque cardio-vasculaire.
Resumo:
The Zermatt-Saas Fee Zone (ZSZ) in the Western Alps consists of multiple slices of ultramafic, mafic and metasedimentary rocks. They represent the remnants of the Mesozoic Piemonte-Ligurian oceanic basin which was subducted to eclogite facies conditions with peak pressures and temperatures of up to 20-28 kbar and 550-630 °C, followed by a greenschist overprint during exhumation. Previous studies, emphasizing on isotopie geochronology and modeling of REE-behavior in garnets from mafic eclogites, suggest that the ZSZ is buildup of tectonic slices which underwent a protracted diachronous subduction followed by a rapid synchronous exhumation. In this study Rb/Sr geochronology is applied to phengite included in garnets from metasediments of two different slices of the ZSZ to date garnet growth. Inclusion ages for 2 metapelitic samples from the same locality from the first slice are 44.25 ± 0.48 Ma and 43.19 ± 0.32 Ma. Those are about 4 Ma older than the corresponding matrix mica ages of respectively 40.02 ± 0.13 Ma and 39.55 ± 0.25 Ma. The inclusion age for a third calcschist sample, collected from a second slice, is 40.58 ± 0.24 Ma and the matrix age is 39.8 ± 1.5 Ma. The results show that garnet effectively functioned as a shield, preventing a reset of the Rb/Sr isotopie clock in the included phengites to temperatures well above the closure of Sr in mica. The results are consistent with the results of former studies on the ZSZ using both Lu/Hf and Sm/Nd geochronology on mafic eclogites. They confirm that at least parts of the ZSZ underwent close to peak metamorphic HP conditions younger than 43 m.y. ago before being rapidly exhumed about 40 m.y. ago. Fluid infiltration in rocks of the second slice occurred likely close to the peak metamorphic conditions, resulting in rapid growth of garnets. Similar calcschists from the same slice contain two distinct types of porphyroblast garnets with indications of multiple growth pulses and resorption indicated by truncated chemical zoning patterns. In-situ oxygen isotope Sensitive High Resolution Ion Microprobe (SHRIMP) analyses along profiles on central sections of the garnets reveal variations of up to 5 %o in individual garnets. The complex compositional zoning and graphite inclusion patterns as well as the variations in oxygen isotopes correspond to growing under changing fluid composition conditions caused by external infiltrated fluids. The ultramafic and mafic rocks, which were subducted along with the sediments and form the volumetrically most important part of the ZSZ, are the likely source of those mainly aqueous fluids. - La Zone de Zermatt-Saas Fee (ZZS) est constituée de multiples écailles de roches ultramafiques, mafiques et méta-sédimentaires. Cette zone, qui affleure dans les Alpes occidentales, représente les restes du basin océanique Piémontais-Ligurien d'âge mésozoïque. Lors de la subduction de ce basin océanique à l'Eocène, les différentes roches composant le planché océanique ont atteint les conditions du faciès éclogitique avec des pressions et des températures maximales estimées entre 20 - 28 kbar et 550 - 630 °C respectivement, avant de subir une rétrogression au faciès schiste vert pendant l'exhumation. Différentes études antérieures combinant la géochronologie isotopique et la modélisation des mécanismes gouvernant l'incorporation des terres rares dans les grenats des éclogites mafiques, suggèrent que la ZZS ne correspond pas à une seule unité, mais est constituée de différentes écailles tectoniques qui ont subi une subduction prolongée et diachrone suivie d'une exhumation rapide et synchrone. Afin de tester cette hypothèse, j'ai daté, dans cette étude, des phengites incluses dans les grenats des méta-sédiments de deux différentes écailles tectoniques de la ZZS, afin de dater la croissance relative de ces grenats. Pour cela j'ai utilisé la méthode géochronologique basée sur la décroissance du Rb87 en Sr87. J'ai daté trois échantillons de deux différentes écailles. Les premiers deux échantillons proviennent de Triftji, au nord du Breithorn, d'une première écaille dont les méta-sédiments sont caractérisés par des bandes méta-pélitiques à grenat et des calcschistes. Le troisième échantillon a été collectionné au Riffelberg, dans une écaille dont les méta-sédiments sont essentiellement des calcschistes qui sont mélangés avec des roches mafiques et des serpentinites. Ce mélange se trouve au-dessus de la grande masse de serpentinites qui forment le Riffelhorn, le Trockenersteg et le Breithorn, et qui est connu sous le nom de la Zone de mélange de Riffelberg (Bearth, 1953). Les inclusions dans les grenats de deux échantillons méta-pélitiques de la première écaille sont datées à 44.25 ± 0.48 Ma et à 43.19 ± 0.32 Ma. Ces âges sont à peu près 4 Ma plus vieux que les âges obtenus sur les phengites provenant de la matrice de ces mêmes échantillons qui donnent des âges de 40.02 ± 0.13 Ma et 39.55 ± 0.25 Ma respectivement. Les inclusions de phengite dans les grenats appartenant à un calcschiste de la deuxième écaille ont un âge de 40.58 ± 0.24 Ma alors que les phengites de la matrice ont un âge de 39.8 ± 1.5 Ma. Pour expliquer ces différences d'âge entre les phengites incluses dans le grenat et les phengites provenant de la matrice, nous suggérons que la cristallisation de grenat ait permis d'isoler ces phengites et de les préserver de tous rééquilibrage lors de la suite du chemin métamorphique prograde, puis rétrograde. Ceci est particulièrement important pour expliquer l'absence de rééquilibrage des phengites dans des conditions de températures supérieures à la température de fermeture du système Rb/Sr pour les phengites. Les phengites en inclusions n'ayant pas pu être datées individuellement, nous interprétons l'âge de 44 Ma pour les inclusions de phengite comme un âge moyen pour l'incorporation de ces phengites dans le grenat. Ces résultats sont cohérents avec les résultats des études antérieures de la ZZS utilisant les systèmes isotopiques de Sm/Nd et Lu/Hf sur des eclogites mafiques. ils confirment qu'aux moins une partie de la ZZS a subi des conditions de pression et de température maximale il y a moins de 44 à 42 Ma avant d'être rapidement exhumée à des conditions métamorphiques du faciès schiste vert supérieur autour de 40 Ma. Cette étude détaillée des grenats a permis, également, de mettre en évidence le rôle des fluides durant le métamorphisme prograde. En effet, si tous les grenats montrent des puises de croissance et de résorption, on peut distinguer, dans différents calcschists provenant de la deuxième écaille, deux types distincts de porphyroblast de grenat en fonction de la présence ou non d'inclusions de graphite. Nous lions ces puises de croissances/résorptions ainsi que la présence ou l'absence de graphite en inclusion dans les grenats à l'infiltration de fluides dans le système, et ceci durant tous le chemin prograde mais plus particulièrement proche et éventuellement peu après du pic du métamorphisme comme le suggère l'âge de 40 Ma mesuré dans les inclusions de phengites de l'échantillon du Riffelberg. Des analyses in-situ d'isotopes d'oxygène réalisé à l'aide de la SHRIMP (Sensitive High Resolution Ion Microprobe) dans des coupes centrales des grenats indiquent des variations jusqu'à 5 %o au sein même d'un grenat. Les motifs de zonations chimiques et d'inclusions de graphite complexes, ainsi que les variations du δ180 correspondent à une croissance de grenat sous des conditions de fluides changeantes dues aux infiltrations de fluides externes. Nous lions l'origine de ces fluides aqueux aux unités ultramafiques et mafiques qui ont été subductés avec les méta-sédiments ; unités ultramafiques et mafiques qui forment la partie volumétrique la plus importante de la ZZS.
Resumo:
Purpose: To study the filtering site using ultrasound biomicroscopy. (UBM) after posterior deep sclerectomy with Ex-PRESS? X-50 implant in patients undergoing filtering surgery.¦Methods: Twenty-six patients that participated in this prospective, non comparative study underwent a posterior deep sclerectomy and an Ex- PRESS? X-50 tube implantation. Clinical outcome factors recorded include: intraocular pressure, number of antiglaucoma medications, best corrected visual acuity (BCVA), frequency and types of complications. Six months postoperatively, an ultrasound biomicroscopy examination was performed.¦Results: Mean follow up was 12.0±3.4 months. Mean IOP decreased from 21 ±5.7 mmHg to 12.4±3 mmHg. At last follow-up examination, 65% of eyes had a complete success and 30% a qualified success. The mean number of antiglaucoma medications decreased from 2.5±1.2 preoperatively to 0.7±1 at the last follow-up postoperatively. BCVA was not changed. 27 complications were observed. On the UBM images, the mean intrascleral space volume was 0.25±0.27 mm3 and no relationship was found between volume and intraocular pressure reduction. We noted in 5/26 (19%) eyes a suprachoroïdal hypoechoic. Low-reflective blebs (L-type) were the most common: 15/26 (58%). No correlation between UBM findings and surgical success was evident.¦Conclusions: Deep sclerectomy with Ex-PRESS? X-50 tube implantation seems an efficient glaucoma surgery. It allows satisfactory IOP reduction with a low number of post operative complications. The advantages of deep sclerectomy with collagen implant are maintained with this modified technique. In both, the same reflective types of filtering blebs are present (high, low, encapsulated and flat). The UBM underlines the three mechanisms of aqueous humor resorption previously identified but no correlation with surgical success can be proved.¦-¦Ce travail de thèse est une analyse par ultrasonographic biomicroscopique (UBM) du site de filtration après sclérectomie profonde postérieure modifiée avec implantation d'un tube Ex- PRESS? X-50.¦Vingt six patients atteints d'un glaucome à angle ouvert, ont participé à cette étude prospective et non-comparative. Le critère d'inclusion est un glaucome à angle ouvert non contrôlé malgré un traitement topique maximal.¦Différents types de chirurgie filtrante sont effectués dans la chirurgie du glaucome dont la trabéculectomie et la sclérectomie profonde.¦L'intervention chirurgicale pratiquée dans cette étude consiste en l'implantation d'un tube Ex-PRESS? X-50 de format défini (3 mm de longueur et 50 μπι de diamètre interne) dans la chambre antérieure,au niveau du trabeculum, sous un volet scléral, ce qui permet le drainage de l'humeur aqueuse vers les espaces sous-conjonctivaux, avec diminution de la pression intraoculaire.¦Cette technique implique uniquement une dissection d'un volet scléral superficiel , sans volet scléral profond comme d'une sclérectomie profonde classique.¦Les modes de fonctionnement de cette sclérectomie profonde modifiée sont explorés par UBM, qui donne des images à haute résolution, semblables à des coupes anatomiques. Le volume de l'espace intrascléral créé artificiellement peut en effet être mesuré et mis en corrélation avec la pression intraoculaire et donc avec le taux de succès. Les différents types d'échogénécité de la bulle de filtration sous-conjonctivale provoquée par la dérivation de l'humeur aqueuse sont également observés. La présence éventuelle d'une filtration supplémentaire au niveau choroïdien est aussi détectée.¦De février 2007 à juin 2008, nous avons suivi chez les vingt six yeux des vingt six patients le volume intrascléral, la filtration sous-conjonctivale et la filtration choroïdienne le cas échéant, de même que l'acuité visuelle, la pression intraoculaire, le nombre de traitement antihypertenseur topique et les complications.¦Les résultats démontrent une réduction de 41 % par rapport à la pression intraoculaire préopératoire, ce qui est statistiquement significatif (p<0.0005). En ce qui concerne l'acuité visuelle, les valeurs demeurent stables. Par ailleurs, le nombre de médicaments antiglaucomateux diminue de façon significative de 2.5 ± 1.2 en préopératoire à 0.7 ± 1.0 au dernier examen (p<0.0005). Le volume de l'espace intrascléral, apparaissant toujours en échographie d'aspect fusiforme, n'est pas corrélé de façon significative avec un meilleur succès chirurgical bien que l'on aperçoive une tendance à une corrélation entre un plus grand volume et une pression intraoculaire plus basse.¦La classification la bulle de filtration se fait selon les 4 catégories de bulle de filtration décrites dans la littérature. La répartition révèle une majorité de type L soit hypoéchogène: 15/26 (58%) et une proportion identique, soit, 4/26 (16%), de bulles hyperéchogènes (type H) et encapsulées (type E); les bulles de filtration plates et hyperéchogènes (type F) sont les moins nombreuses 3/26 (11 %).¦La ligne hyporéflective visible dans 19 % des cas entre la sclère et la choroïde représentant potentiellement un drainage suprachoroïdien, n'est pas associée statistiquement à une meilleure filtration et une pression intraoculaire plus basse mais demeure une troisième voie de filtration, en plus de la filtration sous-conjonctivale et intrasclérale.¦En conclusion, cette technique différente, offrant une plus grande sécurité et des résultats satisfaisants sur l'abaissement de la pression intraoculaire, peut être, dans certains cas, une alternative à la sclérectomie profonde classique ,dont elle partage les mécanismes de filtration objectivés par ultrasonographic biomicrioscopique.
Resumo:
Résumé en français: Il est admis que l'inflation d'une manchette à pression au niveau du bras engendre une augmentation réactionnelle de la tension artérielle qui peut être le résultat d'une gêne lors de l'inflation et peut diminuer la précision de la mesure. Dans cette étude, nous comparons séquentiellement l'augmentation de la tension artérielle lorsque la manchette à pression est positionnée au niveau du bras et au niveau du poignet. Nous avons étudié un collectif de 34 participants normotendus et 34 patients hypertendus. Chacun d'eux était équipé de deux manchettes à pression, l'une au niveau du bras et l'autre au niveau du poignet. Nous avons randomisé l'ordre d'inflation des manchettes ainsi que la pression d'inflation maximale (180mmHg versus 240mmHg). Trois mesures étaient effectuées pour chaque pression d'inflation maximale, ceci au bras comme poignet, et leur séquence était également randomisée. En parallèle, un enregistrement continu de la tension artérielle avait lieu au niveau du majeur de la main opposée à l'aide d'un photoplethysmographe. Cette valeur était considérée comme la valeur de tension artérielle au repos. Pour les participants normotendus, aucune différence statistiquement significative n'a pu être mise en évidence en lien avec la position de la manchette à pression, ceci indépendamment de la pression d'inflation maximale. Variation de la pression systolique à 180 mmHg: 4.3+/-3.0 mmHg au bras et 3.7+/-2.9 mmHg au poignet (p=ns), à 240 mmHg: 5.5+/-3.9 au bras et 4.2+/-2.7 mmHg au poignet (p=0.052). En revanche, concernant les patients hypertendus, une augmentation significative de la tension artérielle a été mise en évidence entre le bras et le poignet. Ceci pour les valeurs de tension artérielle systolique et diastolique et quelle que soit la pression d'inflation maximale utilisée. Augmentation de la pression artérielle systolique 6.513.5 mmHg au bras et 3.812.1mmHg au poignet pour une pression d'inflation maximale de 180 mmHg (p<0.01) et respectivement 6.413.5 mmHg et 4.713.0 mmHg pour 240 mmHg (p=0.01). L'augmentation des valeurs de tension artérielle était indépendante de la valeur tensionnelle de base. Ces résultats montrent que les patients hypertendus réagissent significativement moins à l'inflation d'une manchette ä pression lorsque celle-ci est positionnée au niveau du poignet par rapport au bras, ceci indépendamment des valeurs de tension artérielle de base des patients. Nous pouvons donc suggérer que l'inflation d'une manchette à pression cause moins de désagrément lorsqu'elle est placée au niveau du poignet, notamment chez les patients hypertendus et qu'elle peut être une alternative à la mesure standard au niveau du bras.
Resumo:
La première guerre mondiale a créé des déséquilibres fondamentaux au sein de l'économie mondiale. D'une part, elle a endetté les Etats à un point tel que ces derniers ont été poussés à pratiquer des politiques inflationnistes aux effets sociaux parfois désastreux. D'autre part, elle a détruit le système monétaire international et avec lui le système de régulation des échanges commerciaux. Enfin, elle a provoqué un gonflement de l'appareil productif, ce qui se traduira par des tendances à la surproduction une fois la paix revenue. Bien que la Suisse soit restée neutre durant le conflit, la situation de guerre ne la pas épargnée et les déséquilibres fondamentaux évoqués l'ont aussi touchée de plein fouet à partir de 1919. Fortement intégrée dans l'économie mondiale, que ce soit au niveau des échanges d'hommes, de marchandises et de capitaux, la Suisse a surtout souffert des dérèglements intervenus sur le plan des échanges internationaux. Menant une politique du franc fort, les autorités ont dû faire face aux conséquences négatives de cette stratégie monétaire sur les différentes branches productives de l'économie. Surdimensionnées à l'issue de quatre années de pénurie, marquées par la difficulté d'importer, les branches de l'industrie et de l'agriculture travaillant pour le marché intérieur doivent faire face à une importation massive de produits étrangers. Celle-ci est encore stimulée par la politique de dumping monétaire de certains partenaires commerciaux. Quant à l'industrie d'exportation, elle ne parvient plus à écouler ses produits sur les marchés à monnaie dépréciée. Le chômage grimpe rapidement au cours de l'année 1921, ravivant les tensions sociales exacerbées par les grèves générales de 1918 et 1919. C'est dans ce contexte social explosif que la question de l'assainissement des finances fédérales doit être résolue. Durant le conflit, l'accroissement des dépenses de l'Etat a été couvert, dans une large mesure, par un accroissement de la dette et un recours à la planche à billet. Il s'agit donc de déterminer quels impôts vont fournir les sommes nécessaires au service et à l'amortissement de la dette. Les nouvelles tâches embrassées par la Confédération au cours du conflit provoquent par ailleurs un déficit budgétaire structurel que les autorités veulent combler au plus vite pour ne pas mettre en danger le franc suisse et éviter de tirer les taux de l'argent à la hausse. Pour faire face aux défis commerciaux et financiers générés par la guerre, la Confédération dispose de plusieurs outils lui permettant de mener une politique volontariste. Parmi ceux-ci, la politique douanière occupe une place très importante, puisqu'elle est à la fois la principale source de revenus de la Confédération et un bras de levier efficace pour influencer les flux commerciaux. Certes, de par son importance dans la répartition de la richesse nationale, la politique douanière a toujours été l'objet de conflits politiques homériques. Entre 1880 et 1914, un débat continu a opposé les différents groupes socio-économiques cherchant à défendre des intérêts fiscaux et commerciaux bien compris. Cependant, à l'issue de la Première guerre mondiale, les enjeux du débat prennent un ampleur qualitativement différente, puisqu'il s'agit de répondre à la question que tout le monde se pose: qui va payer la guerre ? Ce mémoire de licence analyse pourquoi et comment la réponse à cette question a engendré des conflits politiques extrêmement violents qui ont contribué à maintenir un climat social tendu au cours de la première moitié des années 1920. Pour diriger la politique douanière suisse en conformité avec leurs intérêts, les grandes associations faîtières de l'économie n'ont pas hésité à prolonger le régime des pleins pouvoirs en vigueur durant la guerre. Le 18 février 1921, des pleins pouvoirs douaniers sont attribués par le Parlement au Conseil fédéral. En vertu de ceux-ci, le gouvernement mène une politique entièrement dévouée aux intérêts des partenaires du bloc bourgeois-paysan alors au pouvoir. Afin de réguler les flux commerciaux, des mesures de restriction de l'importation sont instaurées. En matière de fiscalité, il s'agit avant tout de ne pas recourir trop à l'imposition directe frappant le revenu et le capital, mais d'utiliser l'imposition indirecte, et en particulier la taxation douanière. Pour satisfaire la paysannerie, dont l'appui politique est nécessaire, les positions agricoles du nouveau tarif sont fortement augmentées, ce qui pousse le prix des denrées alimentaires à la hausse. Cette partie du programme douanier, qui est défavorable aux milieux de l'industrie d'exportation, engendre quelques tensions au sein même du bloc bourgeois. Grands perdants de la politique fiscale menée par le Conseil fédéral, les salariés tentent de s'y opposer par tous les moyens à disposition. La politique autoritaire instaurée dans le domaine douanier les empêche toutefois de recourir au référendum. Une large coalition d'associations et de partis de gauche décident alors de s'opposer à la politique du gouvernement par le biais d'une initiative. La politique douanière devient le lieu de rassemblement d'une clientèle politique très diverse susceptible de déboucher sur la constitution d'un cartel politique de centre-gauche. Parallèlement, le PSS lance une autre initiative demandant à ce que la dette de guerre soit payée par un prélèvement unique sur la fortune. Au cours des années 1921 à 1923, la politique fiscale devient un champ d'affrontement politique de première importance. Certes, la gauche socialiste ne se gêne pas d'instrumentaliser ce champ pour attiser la lutte des classes, mais c'est surtout la droite nationaliste qui jette de l'huile sur le feu. Le discours antisocialiste qui caractérise la campagne de votation est de la plus grande violence. Au-delà des enjeux financiers et économiques qui sous-tendent le débat douanier, l'initiative remet en question les fondements mêmes de l'organisation politique suisse. Scellée en 1902, l'alliance douanière est en effet la clef de voûte du bloc bourgeois-paysan des associations faîtières. Une victoire de l'initiative serait la porte ouverte à un cartel de centre-gauche ou, plus grave encore, à une alliance rouge-verte. En stigmatisant les partisans bourgeois de l'initiative, qui sont accusés de faire un pacte avec le diable, l'USCI et l'USP parviennent à isoler le mouvement ouvrier. La défaite de 1923 est ainsi sans appel. Elle marque un jalon important de la «ghettoïsation» que le mouvement ouvrier aura à subir tout au long de l'Entre-deux-guerres. En plébiscitant les pleins pouvoirs douaniers, la votation donne aussi décharge aux autorités politiques pour leur gestion autoritaire de l'économie. Impensable avant la guerre, la soustraction d'arrêtés au référendum se systématisera dans l'Entre-deux-guerres, participant à une remise en question plus large des principes démocratiques. Au centre de la gestion des conséquences économiques et financières de la Première guerre mondiale, la politique douanière permet donc d'expliciter les conséquences sociales et politiques que le conflit a provoquées sur le plus long terme par le biais de l'explosion de la dette de l'Etat.
Resumo:
Pathogens represent a threat to all organisms, which generates a coevolutionary arms race. Social insects provide an interesting system to study host-pathogen interactions, because their defences depend on both the individual and collective responses, and involve genetic, physiological, behavioral and organizational mechanisms. In this thesis, I studied the evolutionary ecology of the resistance of ant queens and workers to natural fungal pathogens. Mechanisms that increase within-colony genetic diversity, like polyandry and polygyny, decrease relatedness among colony mates, which reduces the strength of selection for the evolution and maintenance of altruistic behavior. A leading hypothesis posits that intracolonial genetic diversity is adaptive because it reduces the risk of pathogen transmission. In chapter 1, I examine individual resistance in ant workers of Formica selysi, a species that shows natural variation in colony queen number. I discuss how this variation might be beneficial to resist natural fungal pathogens in groups. Overall my results indicate that there is genetic variation for fungal resistance in workers, a requirement for the 'genetic diversity for pathogen resistance' hypothesis. However I was not able to detect direct evidence that group diversity improves the survival of focal ants or reduces pathogen transmission. Thus, although the coexistence of multiple queens increases the within-colony variance in worker resistance, it remains unclear whether it protects ant colonies from pathogens and whether it is comparable to polyandry in other social insects. Traditionally, it was thought that the immune system of invertebrates lacked memory and specificity. In chapter 2, I investigate individual immunity in ant queens and show that they may be able to adjust their pathogen defences in response to their current environment by means of immune priming, which bears similarities with the adaptive immunity of vertebrates. However, my results indicate that the expression of immune priming in ant queens may be influenced by factors like mating status, mating conditions or host species. In addition, I showed that mating increases pathogen resistance in çhe two ant species that I studied (F. selysi and Lasius niger). This raises the question of how ant queens invest heavily in both maintenance and reproduction, which I discuss in the context of the evolution of social organization. In chapter 3,1 investigate if transgenerational priming against a fungal pathogen protects the queen progeny. I failed to detect this effect, and discuss why the detection of transgenerational immune priming in ants is a difficult task. Overall, this thesis illustrates some of the individual and collective mechanisms that likely played a role in allowing ants to become one of the most diverse and ecologically successful groups of organisms. -- Les pathogènes représentent une menace pour tous les organismes, ce qui a engendré l'évolution d'une course aux armements. Les insectes sociaux sont un système intéressant permettant d'étudier les interactions hôtes-pathogènes, car leurs défenses dépendent de réponses aussi bien individuelles que collectives, et impliquent des mécanismes génétiques, physiologiques, comportementaux et organisationnels. Dans cette thèse, j'ai étudié l'écologie évolutive de la résistance des reines et des ouvrières de fourmis exposées à des champignons pathogènes. Les facteurs augmentant la diversité génétique à l'intérieur de la colonie, comme la polyandrie et la polygynie, diminuent la parenté, ce qui réduit la pression de sélection pour l'évolution et la maintenance des comportements altruistes. Une hypothèse dominante stipule que la diversité génétique à l'intérieur de la colonie est adaptative car elle réduit le risque de transmission des pathogènes. Dans le chapitre 1, nous examinons la résistance individuelle à des pathogènes fongiques chez les ouvrières de Formica selysi, une espèce présentant une variation naturelle dans le nombre de reines par colonie. Nous discutons aussi de la possibilité que ces variations individuelles augmentent la capacité du groupe à résister à des champignons pathogènes. Dans l'ensemble, nos résultats indiquent une variation génétique dans la résistance aux champignons chez les ouvrières, un prérequis à l'hypothèse que la diversité génétique du groupe augmente la résistance aux pathogènes. Cependant, nous n'avons pas pu détecter une preuve directe que la diversité du groupe augmente la survie de fourmis focales ou réduise la transmission des pathogènes. Ainsi, bien que la coexistence de plusieurs reines augmente la variance dans la résistance des ouvrières à l'intérieur de la colonie, la question de savoir si cela protège les colonies de fourmis contre les pathogènes et si cela est comparable à la polyandrie chez d'autres insectes sociaux reste ouverte. Traditionnellement, il était admis que le système immunitaire des invertébrés ne possédait pas de mémoire et était non-spécifique. Dans le chapitre 2, nous avons étudié l'immunité individuelle chez des reines de fourmis. Nous avons montré que les reines pourraient être capables d'ajuster leurs défenses contre les pathogènes en réponse à leur environnement, grâce à une pré-activation du système immunitaire (« immune priming ») ressemblant à l'immunité adaptative des vertébrés. Cependant, nos résultats indiquent que cette pré-activation du système immunitaire chez les reines dépend du fait d'être accouplée ou non, des conditions d'accouplement, ou de l'espèce. De plus, nous avons montré que l'accouplement augmente la résistance aux pathogènes chez les deux espèces que nous avons étudié (F. selysi et Lasius niger). Ceci pose la question de la capacité des reines à investir fortement aussi bien dans la maintenance que dans la reproduction, ce que nous discutons dans le contexte de l'évolution de l'organisation sociale. Dans le chapitre 3, nous étudions si la pré-activation trans-générationelle du système immunitaire [« trans-generational immune priming ») protège la progéniture de la reine contre un champignon pathogène. Nous n'avons par réussi à détecter cet effet, et discutons des raisons pour lesquelles la détection de la pré-activation trans-générationelle du système immunitaire chez les fourmis est une tâche difficile. Dans l'ensemble, cette thèse illustre quelques-uns des mécanismes individuels et collectifs qui ont probablement contribué à la diversité et à l'important succès écologique des fourmis.
Resumo:
Introduction : Le monitoring de la tension artérielle à domicile est recommandé par plusieurs guidelines et a été montré être faisable chez la personne âgée. Les manomètres au poignet ont récemment été proposés pour la mesure de la tension artérielle à domicile, mais leur précision n'a pas été au préalable évaluée chez les patients âgés. Méthode : Quarante-huit participants (33 femmes et 15 hommes, moyenne d'âge 81.3±8.0 ans) ont leur tension artérielle mesurée avec un appareil au poignet avec capteur de position et un appareil au bras dans un ordre aléatoire et dans une position assise. Résultats : Les moyennes de mesures de tension artérielle étaient systématiquement plus basses avec l'appareil au poignet par rapport à celui du bras pour la pression systolique (120.1±2.2 vs. 130.5±2.2 mmHg, P < 0.001, moyenneidéviation standard) et pour la pression diastolique (66.011.3 vs. 69.7±1.3 mmHg, P < 0.001). De plus, une différence de lOmmHg ou plus grande entre l'appareil au bras et au poignet était observée dans 54.2 et 18,8% des mesures systoliques et diastoliques respectivement. Conclusion : Comparé à l'appareil au bras, l'appareil au poignet avec capteur de position sous-estimait systématiquement aussi bien la tension artérielle systolique que diastolique. L'ampleur de la différence est cliniquement significative et met en doute l'utilisation de l'appareil au poignet pour monitorer la tension artérielle chez la personne âgée. Cette étude indique le besoin de valider les appareils de mesures de la tension artérielle dans tous les groupes d'âge, y compris les personnes âgées.