35 resultados para Turbine à gaz
Resumo:
L'échec des tentatives de juguler les émissions globales de gaz à effet de serre a mené au renforcement d'un discours sur la nécessité de l'adaptation au changement climatique. Il est de plus souvent considéré qu'une transformation de l'action publique serait nécessaire afin de réduire les impacts de grande magnitude qui découlent du changement climatique. Depuis les années 2000, on constate ainsi un développement des activités étatiques dans le domaine de l'adaptation. Cette évolution suscite une question centrale: quels sont les effets réels que provoque l'intégration de l'adaptation au changement climatique dans la conduite des politiques publiques et comment expliquer les éventuelles limites à ces processus? La littérature spécialisée sur l'adaptation fait preuve d'un certain réductionnisme à l'égard de la complexité de l'action publique en considérant que lorsque la capacité d'agir contre le problème de la vulnérabilité au changement climatique existe, toute forme d'inaction publique serait un déficit de mise en oeuvre provoqué par des barrières à l'action qu'il faudrait lever. A contrario, cette thèse considère l'adaptation comme une norme de politique publique dont l'intégration est susceptible de provoquer des changements institutionnels dans la forme et le contenu des politiques publiques, et des effets concrets sur les acteurs vulnérables au changement climatique. Afin de mesurer les effets de l'intégration politique de l'adaptation, un concept est formulé sur la base d'un idéal-type du régime institutionnel adaptatif, soit une construction théorique des régulations qu'impliquerait une gestion cohérente du système socioécologique complexe dans lequel s'insère le système climatique. L'auteur propose un cadre d'analyse empirique des processus publics d'adaptation qu'il applique ensuite à deux États: l'Inde (politique agricole) et la Suisse (politique du tourisme hivernal), avec pour objectif de repérer des mécanismes explicatifs communs aux effets de l'intégration dans ces deux contextes extrêmement dissemblables. L'étude débouche sur six résultats qui constituent une contribution appréciable à la littérature. L'auteur montre: premièrement, que l'intégration politique de l'adaptation conduit à une production d'actes symboliques, qui s'explique notamment par le manque de pression publique à agir sur le problème de la vulnérabilité au changement climatique; deuxièmement, que le processus d'intégration agit sur la réalité sociale par le biais d'un mécanisme d'attribution de ressources publiques à certains acteurs du champ politique; troisièmement, que les groupes sociaux qui bénéficient de ces ressources publiques ne sont pas nécessairement les plus vulnérables, mais ceux détenant les ressources d'action nécessaires à l'activation de l'intervention publique; quatrièmement, que l'absence de clefs de répartition des coûts de l'adaptation, de procédures de monitoring et d'instruments d'action contraignants limitent les effets des programmes publics d'adaptation; cinquièmement, que la faible articulation institutionnelle entre objectif d'adaptation et objectifs de protection de l'environnement accentue le risque de processus d'adaptation produisant des externalités environnementales; sixièmement, que les transformations dont la littérature souligne la nécessité ne sont pas nécessairement faisables ni désirables. Sur la base de cette analyse, cette thèse s'écarte de la littérature dominante en concluant que les processus publics d'adaptation ne souffrent pas d'un déficit de mise en oeuvre, mais d'un déficit de légitimité lié à leurs effets pernicieux. L'auteur formule alors trois recommandations pour améliorer la légitimité de ces politiques et trois questions ouvertes sur le futur politique de l'adaptation.
Resumo:
INTRODUCTION. The role of turbine-based NIV ventilators (TBV) versus ICU ventilators with NIV mode activated (ICUV) to deliver NIV in case of severe respiratory failure remains debated. OBJECTIVES. To compare the response time and pressurization capacity of TBV and ICUV during simulated NIV with normal and increased respiratory demand, in condition of normal and obstructive respiratory mechanics. METHODS. In a two-chamber lung model, a ventilator simulated normal (P0.1 = 2 mbar, respiratory rate RR = 15/min) or increased (P0.1 = 6 mbar, RR = 25/min) respiratory demand. NIV was simulated by connecting the lung model (compliance 100 ml/mbar; resistance 5 or 20 l/mbar) to a dummy head equipped with a naso-buccal mask. Connections allowed intentional leaks (29 ± 5 % of insufflated volume). Ventilators to test: Servo-i (Maquet), V60 and Vision (Philips Respironics) were connected via a standard circuit to the mask. Applied pressure support levels (PSL) were 7 mbar for normal and 14 mbar for increased demand. Airway pressure and flow were measured in the ventilator circuit and in the simulated airway. Ventilator performance was assessed by determining trigger delay (Td, ms), pressure time product at 300 ms (PTP300, mbar s) and inspiratory tidal volume (VT, ml) and compared by three-way ANOVA for the effect of inspiratory effort, resistance and the ventilator. Differences between ventilators for each condition were tested by oneway ANOVA and contrast (JMP 8.0.1, p\0.05). RESULTS. Inspiratory demand and resistance had a significant effect throughout all comparisons. Ventilator data figure in Table 1 (normal demand) and 2 (increased demand): (a) different from Servo-i, (b) different from V60.CONCLUSION. In this NIV bench study, with leaks, trigger delay was shorter for TBV with normal respiratory demand. By contrast, it was shorter for ICUV when respiratory demand was high. ICUV afforded better pressurization (PTP 300) with increased demand and PSL, particularly with increased resistance. TBV provided a higher inspiratory VT (i.e., downstream from the leaks) with normal demand, and a significantly (although minimally) lower VT with increased demand and PSL.
Resumo:
BACKGROUND: Obesity is a contemporary epidemic that does not affect all age groups and sections of society equally. OBJECTIVE: The objective was to examine socioeconomic differences in trajectories of body mass index (BMI; in kg/m(2)) and obesity between the ages of 45 and 65 y. DESIGN: A total of 13,297 men and 4532 women from the French GAZEL (Gaz de France Electricité de France) cohort study reported their height in 1990 and their weight annually over the subsequent 18 y. Changes in BMI and obesity between ages 45 and 49 y, 50 and 54 y, 55 and 59 y, and 60 and 65 y as a function of education and occupational position (at age 35 y) were modeled by using linear mixed models and generalized estimating equations. RESULTS: BMI and obesity rates increased between the ages of 45 and 65 y. In men, BMI was higher in unskilled workers than in managers at age 45 y; this difference in BMI increased from 0.82 (95% CI: 0.66, 0.99) at 45 y to 1.06 (95% CI: 0.85, 1.27) at 65 y. Men with a primary school education compared with those with a high school degree at age 45 y had a 0.75 (95% CI: 0.51, 1.00) higher BMI, and this difference increased to 1.32 (95% CI: 1.03,1.62) at age 65 y. Obesity rates were 3.35% and 7.68% at age 45 y and 9.52% and 18.10% at age 65 y in managers and unskilled workers, respectively; the difference in obesity increased by 4.25% (95% CI: 1.87, 6.52). A similar trend was observed in women. Conclusions: Weight continues to increase in the transition between midlife and old age; this increase is greater in lower socioeconomic groups.
Resumo:
Adequate supply of oxygen to the brain is critical for maintaining normal brain function. Severe hypoxia, such as that experienced during high altitude ascent, presents a unique challenge to brain oxygen (O2) supply. During high-intensity exercise, hyperventilation-induced hypocapnia leads to cerebral vasoconstriction, followed by reductions in cerebral blood flow (CBF), oxygen delivery (DO2), and tissue oxygenation. This reduced O2 supply to the brain could potentially account for the reduced performance typically observed during exercise in severe hypoxic conditions. The aims of this thesis were to document the effect of acute and chronic exposure to hypoxia on CBF control, and to determine the role of cerebral DO2 and tissue oxygenation in limiting performance during exercise in severe hypoxia. We assessed CBF, arterial O2 content (CaO2), haemoglobin concentration ([Hb]), partial pressure of arterial O2 (PaO2), cerebrovascular CO2 reactivity, ventilatory response to CO2, cerebral autoregulation (CA), and estimated cerebral DO2 (CBF ⨉ CaO2) at sea level (SL), upon ascent to 5,260 m (ALT1), and following 16 days of acclimatisation to 5,260 m (ALT16). We found an increase in CBF despite an elevated cerebrovascular CO2 reactivity at ALT1, which coincided with a reduced CA. Meanwhile, PaO2 was greatly decreased despite increased ventilatory drive at ALT1, resulting in a concomitant decrease in CaO2. At ALT16, CBF decreased towards SL values, while cerebrovascular CO2 reactivity and ventilatory drive were further elevated. Acclimatisation increased PaO2, [Hb], and therefore CaO2 at ALT16, but these changes did not improve CA compared to ALT1. No differences were observed in cerebral DO2 across SL, ALT1, and ALT16. Our findings demonstrate that cerebral DO2 is maintained during both acute and chronic exposure to 5,260 m, due to the reciprocal changes in CBF and CaO2. We measured middle cerebral artery velocity (MCAv: index of CBF), cerebral DO2, ventilation (VE), and performance during incremental cycling to exhaustion and 15km time trial cycling in both normoxia and severe hypoxia (11% O2, normobaric), with and without added CO2 to the inspirate (CO2 breathing). We found MCAv was higher during exercise in severe hypoxia compared in normoxia, while cerebral tissue oxygenation and DO2 were reduced. CO2 breathing was effective in preventing the development of hyperventilation-induced hypocapnia during intense exercise in both normoxia and hypoxia. As a result, we were able to increase both MCAv and cerebral DO2 during exercise in hypoxia with our CO2 breathing setup. However, we concomitantly increased VE and PaO2 (and presumably respiratory work) due to the increased hypercapnic stimuli with CO2 breathing, which subsequently contributed to the cerebral DO2 increase during hypoxic exercise. While we effectively restored cerebral DO2 during exercise in hypoxia to normoxic values with CO2 breathing, we did not observe any improvement in cerebral tissue oxygenation or exercise performance. Accordingly, our findings do not support the role of reduced cerebral DO2 in limiting exercise performance in severe hypoxia. -- Un apport adéquat en oxygène au niveau du cerveau est primordial pour le maintien des fonctions cérébrales normales. L'hypoxie sévère, telle qu'expérimentée au cours d'ascensions en haute altitude, présente un défi unique pour l'apport cérébral en oxygène (O2). Lors d'exercices à haute intensité, l'hypocapnie induite par l'hyperventilation entraîne une vasoconstriction cérébrale suivie par une réduction du flux sanguin cérébral (CBF), de l'apport en oxygène (DO2), ainsi que de l'oxygénation tissulaire. Cette réduction de l'apport en O2 au cerveau pourrait potentiellement être responsable de la diminution de performance observée au cours d'exercices en condition d'hypoxie sévère. Les buts de cette thèse étaient de documenter l'effet de l'exposition aiguë et chronique à l'hypoxie sur le contrôle du CBF, ainsi que de déterminer le rôle du DO2 cérébral et de l'oxygénation tissulaire comme facteurs limitant la performance lors d'exercices en hypoxie sévère. Nous avons mesuré CBF, le contenu artériel en oxygène (CaO2), la concentration en hémoglobine ([Hb]), la pression partielle artérielle en O2 (PaO2), la réactivité cérébrovasculaire au CO2, la réponse ventilatoire au CO2, et l'autorégulation cérébrale sanguine (CA), et estimé DO2 cérébral (CBF x CaO2), au niveau de la mer (SL), au premier jour à 5.260 m (ALT1) et après seize jours d'acclimatation à 5.260 m (ALT16). Nous avons trouvé des augmentations du CBF et de la réactivité cérébrovasculaire au CO2 après une ascension à 5.260 m. Ces augmentations coïncidaient avec une réduction de l'autorégulation cérébrale. Simultanément, la PaO2 était grandement réduite, malgré l'augmentation de la ventilation (VE), résultant en une diminution de la CaO2. Après seize jours d'acclimatation à 5.260 m, le CBF revenait autour des valeurs observées au niveau de la mer, alors que la réactivité cérébrovasculaire au CO2 et la VE augmentaient par rapport à ALT1. L'acclimatation augmentait la PaO2, la concentration en hémoglobine, et donc la CaO2, mais n'améliorait pas l'autorégulation cérébrale, comparé à ALT1. Aucune différence n'était observée au niveau du DO2 cérébral entre SL, ALT1 et ALT16. Nos résultats montrent que le DO2 cérébral est maintenu constant lors d'expositions aiguë et chronique à 5.260m, ce qui s'explique par la réciprocité des variations du CBF et de la CaO2. Nous avons mesuré la vitesse d'écoulement du sang dans l'artère cérébrale moyenne (MCAv : un indice du CBF), le DO2 cérébral, la VE et la performance lors d'exercice incrémentaux jusqu'à épuisement sur cycloergomètre, ainsi que des contre-la-montres de 15 km en normoxie et en hypoxie sévère (11% O2, normobarique) ; avec ajout ou non de CO2 dans le mélange gazeux inspiré. Nous avons trouvé que MCAv était plus haute pendant l'exercice hypoxique, comparé à la normoxie alors que le DO2 cérébral était réduit. L'ajout de CO2 dans le gaz inspiré était efficace pour prévenir l'hypocapnie induite par l'hyperventilation, qui se développe à l'exercice intense, à la fois en normoxie et en hypoxie. Nous avons pu augmenter MCAv et le DO2 cérébral pendant l'exercice hypoxique, grâce à l'ajout de CO2. Cependant, nous avons augmenté la VE et la PaO2 (et probablement le travail respiratoire) à cause de l'augmentation du stimulus hypercapnique. Alors que nous avons, grâce à l'ajout de CO2, efficacement restauré le DO2 cérébral au cours de l'exercice en hypoxie à des valeurs obtenues en normoxie, nous n'avons observé aucune amélioration dans l'oxygénation du tissu cérébral ou de la performance. En conséquence, nos résultats ne soutiennent pas le rôle d'un DO2 cérébral réduit comme facteur limitant de la performance en hypoxie sévère.
Resumo:
Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.
Resumo:
RESUME GENERAL Au cours de ces dernières années, le monoxyde d'azote (NO) produit par une famille d'enzymes, les NO synthases (NOS), est apparu comme un effecteur central dans la régulation du système cardiovasculaire et du métabolisme énergétique. Chez l'homme, un défaut de production du NO est associé à des maladies cardiovasculaires et métaboliques comme la résistance à l'insuline ou le diabète de type 2. Ces pathologies se retrouvent chez les souris invalidées pour la NO synthase endothéliale (eN0S-/-) qui présentent non seulement une hypertension mais également une résistance à l'insuline et une dyslipidémie (augmentation des triglycérides et des acides gras libres). Ces anomalies sont étroitement associées et impliquées dans le développement du diabète de type 2. Dans cette étude, nous avons essayé de déterminer à partir du modèle de souris eN0S-/-, l'influence de la eNOS et de son produit, le NO, sur la régulation du métabolisme lipidique intracellulaire. Ainsi, nous avons montré que cette enzyme et le NO régulent directement l'activité β-oxydative des mitochondries isolées du muscle squelettique, du muscle cardiaque et du tissu adipeux blanc. Par ailleurs, dans le muscle de ces souris, le contenu des mitochondries et l'expression des gènes impliqués dans leur biogénèse sont diminués, ce qui suggère que la eNOS et/ou le NO contrôlent également la synthèse de ces organelles. Les mitochondries, via la β-oxydation, sont impliquées dans la production d'énergie à partir des acides gras libres. Dans notre modèle animal, la diminution de la β-oxydation dans le muscle, s'accompagne d'une accumulation des triglycérides intramyocellulaires. Cette accumulation prédispose fortement au développement de la résistance à l'insuline. Les anomalies du métabolisme β-oxydatif favorisent donc probablement l'apparition de la dyslipidémie et le développement de la résistance à l'insuline observées chez les souris eN0S-/-. Cette hypothèse est soutenue par différentes études effectuées chez l'homme et l'animal qui suggèrent qu'une dysfonction mitochondriale peut être à l'origine de la résistance à l'insuline. Ces données récentes et les résultats de ce travail apportent un regard nouveau sur le rôle du NO dans le développement des maladies métaboliques que sont la résistance à l'insuline, le diabète de type 2 et l'obésité. Elles placent aux centres de ces mécanismes une organelle, la mitochondrie, située au carrefour des métabolismes glucidiques et lipidiques. SUMMARY Over the last years, nitric oxide (NO), synthesized by a family of enzymes, the NO synthases, has become a central regulator of the cardiovascular system and energy metabolism. In humans, defective NO production is found in cardiovascular and metabolic diseases such as insulin resistance or type 2 diabetes mellitus. These alterations are also found in knockout mice for the endothelial nitric oxide synthase (eN0S-/-), which are not only hypertensive but also display insulin resistance and dyslipidemia (with increased triglyceride and free fatty acid levels). These pathologic features are tightly linked and involved in the pathogenesis of type 2 DM. In this study, using eN0S-/- mice, we determined the role played by this enzyme and its product, NO, on intracellular lipid metabolism. We show that eNOS and NO directly regulate β-oxidation in mitochondria isolated from skeletal and cardiac muscle as well as white adipose tissue. Furthermore, in the skeletal muscle of these mice, the mitochondrial content and the expression of genes involved in mitochondrial biogenesis are decreased, suggesting that eNOS and/or NO also regulate the synthesis of this intracellular organelle. Mitochondria, through β-oxidation, play a role in energy production from free fatty acids. In our animal model, decreased β-oxidation in skeletal muscle is associated with accumulation of intramyocellular lipids. This increased lipid content plays an important role in the pathogenesis of insulin resistance. Defective β-oxidation, therefore, probably favours the development of insulin resistance and dyslipidemia as seen in these animals. This hypothesis is strengthened by studies in humans and animals indicating that mitochondrial dysfunction is associated with insulin resistance. These recent data and the results of this work provide evidence for a role of NO in the development of metabolic diseases such as insulin resistance or type diabetes mellitus. They put as a central player, an organelle, the mitochondria, which lies at the crossway of carbohydrate and lipid metabolism. RESUME DIDACTIQUE Le maintien des fonctions vitales et l'accomplissement d'une activité physique nécessitent, chez l'homme, un apport quotidien d'énergie. Cette énergie est présente, dans l'alimentation, principalement sous forme de graisses (lipides) ou de sucres. La production d'énergie s'effectue en majorité dans le muscle au niveau d'une organelle particulière, la mitochondrie. La régulation du métabolisme énergétique fait intervenir de nombreux facteurs de régulation dont l'un des plus connu est l'insuline. De nombreuses maladies comme le diabète de type 2, l'obésité ou le syndrome métabolique découlent de la dérégulation du métabolisme énergétique. Un mécanisme particulier, la résistance à l'insuline, qui se caractérise par un défaut d'action de l'insuline au niveau de ses tissus cibles (foie, muscle...) est souvent impliqué dans le développement de ces pathologies. L'étude de ces anomalies métaboliques nécessite l'utilisation de modèles, notamment animaux, qui ont la particularité de reproduire partiellement un état pathologique caractéristique de certaines maladies humaines. Dans ce travail, nous avons utilisé un modèle de souris dont la particularité est de ne pas exprimer une enzyme, la monoxyde d'azote (NO) synthase endothéliale (eNOS), responsable de la synthèse d'un gaz, le NO. Ces souris présentent une hypertension artérielle, des anomalies du métabolisme des lipides et une résistance à l'insuline. Or, de récents travaux effectués chez l'homme montrent que des individus insulino-résistants ou diabétiques de type 2 ont une diminution de la production de NO. Lors de nos investigations, nous avons démontré que la quantité et la capacité des mitochondries à utiliser les lipides comme substrat énergétique est diminuée dans les muscles des souris eN0S-/-. Par ailleurs, ces deux anomalies sont associées dans ce tissu à une accumulation des lipides. De façon très intéressante, ce phénomène est décrit dans de nombreuses études effectuées chez l'homme et l'animal comme favorisant le développement de la résistance à l'insuline. Les résultats de ce travail suggèrent donc que la eNOS et/ou le NO joue un rôle important dans l'activité et la synthèse des mitochondries. Le NO pourrait donc constituer une cible thérapeutique dans le traitement des maladies métaboliques.
Resumo:
Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.
Resumo:
Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
OBJECTIVE: To evaluate the feasibility and effects of non-invasive pressure support ventilation (NIV) on the breathing pattern in infants developing respiratory failure after extubation. DESIGN: Prospective pilot clinical study; each patient served as their own control. SETTING: A nine-bed paediatric intensive care unit of a tertiary university hospital. PATIENTS: Six patients (median age 5 months, range 0.5-7 months; median weight 4.2 kg, range 3.8-5.1 kg) who developed respiratory failure after extubation. INTERVENTIONS: After a period of spontaneous breathing (SB), children who developed respiratory failure were treated with NIV. MEASUREMENTS AND RESULTS: Measurements included clinical dyspnoea score (DS), blood gases and oesophageal pressure recordings, which were analysed for respiratory rate (RR), oesophageal inspiratory pressure swing (dPes) and oesophageal pressure-time product (PTPes). All data were collected during both periods (SB and NIV). When comparing NIV with SB, DS was reduced by 44% (P < 0.001), RR by 32% (P < 0.001), dPes by 45% (P < 0.01) and PTPes by 57% (P < 0.001). A non-significant trend for decrease in PaCO(2) was observed. CONCLUSION: In these infants, non-invasive pressure support ventilation with turbine flow generator induced a reduction of breathing frequency, dPes and PTPes, indicating reduced load of the inspiratory muscles. NIV can be used with some benefits in infants with respiratory failure after extubation.
Resumo:
Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.
Resumo:
Bien qu'intrinsèquement non toxiques, les gaz nobles comme l'argon entraînent à fortes concentrations une déplétion d'oxygène pouvant mener jusqu'à l'asphyxie. Si l'argon se retrouve dans la circulation générale, celui-ci peut même être responsable d'embolies parfois fatales. Cependant, les propriétés d'inerties physicochimiques de ce gaz le rendent très utile dans de nombreuses applications actuelles. Ces applications étant en constante augmentation, il n'est pas rare d'observer proportionnellement des intoxications parfois létales liées à ce gaz. Ainsi, devant le manque d'harmonisation des prélèvements d'échantillons biologiques afin de mettre en évidence de telles intoxications aux gaz nobles et devant l'augmentation du nombre de cas, il devient nécessaire d'établir un état des lieux sur l'utilisation de l'argon, sa toxicité et la stratégie analytique à adopter dans le contexte médico-légal.
Resumo:
L'imagerie est de plus en plus utilisée en médecine forensique. Actuellement, les connaissances nécessaires pour interpréter les images post mortem sont faibles et surtout celles concernant les artéfacts post mortem. Le moyen radiologique le plus utilisé en médecine légale est la tomodensitométrie multi-coupes (TDMC). Un de ses avantages est la détection de gaz dans le corps. Cette technique est utile au diagnostic d'embolie gazeuse mais sa très grande sensibilité rend visible du gaz présent même en petite quantité. Les premières expériences montrent que presque tous les corps scannés présentent du gaz surtout dans le système vasculaire. Pour cette raison, le médecin légiste est confronté à un nouveau problème : la distinction entre du gaz d'origine post-mortem et une embolie gazeuse vraie. Pour parvenir à cette distinction, il est essentiel d'étudier la distribution de ces gaz en post mortem. Aucune étude systématique n'a encore été réalisée à ce jour sur ce sujet.¦Nous avons étudié l'incidence et la distribution des gaz présents en post mortem dans les vaisseaux, dans les os, dans les tissus sous-cutanés, dans l'espace sous-dural ainsi que dans les cavités crânienne, thoracique et abdominale (82 sites au total) de manière à identifier les facteurs qui pourraient distinguer le gaz post-mortem artéfactuel d'une embolie gazeuse¦Les données TDMC de 119 cadavres ont été étudiées rétrospectivement. Les critères d'inclusion des sujets sont l'absence de lésion corporelle permettant la contamination avec l'air extérieur, et, la documentation du délai entre le moment du décès et celui du CT-scan (p.ex. rapport de police, protocole de réanimation ou témoin). La présence de gaz a été évaluée semi-quantitativement par deux radiologues et codifiée. La codification est la suivante : grade 0 = pas de gaz, grade 1 = une à quelques bulles d'air, grade 2 = structure partiellement remplie d'air, grade 3 = structure complètement remplie d'air.¦Soixante-quatre des 119 cadavres présentent du gaz (62,2%), et 56 (75,7%) ont montré du gaz dans le coeur. Du gaz a été détecté le plus fréquemment dans le parenchyme hépatique (40%); le coeur droit (ventricule 38%, atrium 35%), la veine cave inférieure (infra-rénale 30%, supra-rénale 26%), les veines sus-hépatiques (gauche 26%, moyenne 29%, droite 22 %), et les espaces du porte (29%). Nous avons constaté qu'une grande quantité de gaz liée à la putréfaction présente dans le coeur droit (grade 3) est associée à des collections de gaz dans le parenchyme hépatique (sensibilité = 100%, spécificité = 89,7%). Pour décrire nos résultats, nous avons construit une séquence d'animation qui illustre le processus de putréfaction et l'apparition des gaz à la TDMC post-mortem.¦Cette étude est la première à montrer que l'apparition post-mortem des gaz suit un modèle de distribution spécifique. L'association entre la présence de gaz intracardiaque et dans le parenchyme hépatique pourrait permettre de distinguer du gaz artéfactuel d'origine post-mortem d'une embolie gazeuse vraie. Cette étude fournit une clé pour le diagnostic de la mort due à une embolie gazeuse cardiaque sur la base d'une TDMC post-mortem.¦Abstract¦Purpose: We investigated the incidence and distribution of post-mortem gas detected with multidetector computed tomography (MDCT) to identify factors that could distinguish artifactual gas from cardiac air embolism.¦Material and Methods: MDCT data of 119 cadavers were retrospectively examined. Gas was semiquantitatively assessed in selected blood vessels, organs and body spaces (82 total sites).¦Results: Seventy-four of the 119 cadavers displayed gas (62.2%; CI 95% 52.8 to 70.9), and 56 (75.7%) displayed gas in the heart. Most gas was detected in the hepatic parenchyma (40%); right heart (38% ventricle, 35% atrium), inferior vena cava (30% infrarenally, 26% suprarenally), hepatic veins (26% left, 29% middle, 22% right), and portal spaces (29%). Male cadavers displayed gas more frequently than female cadavers. Gas was detected 5-84 h after death; therefore, the post-mortem interval could not reliably predict gas distribution (rho=0.719, p<0.0001). We found that a large amount of putrefaction-generated gas in the right heart was associated with aggregated gas bubbles in the hepatic parenchyma (sensitivity = 100%, specificity = 89.7%). In contrast, gas in the left heart (sensitivity = 41.7%, specificity = 100%) or in peri-umbilical subcutaneous tissues (sensitivity = 50%, specificity = 96.3%) could not predict gas due to putrefaction.¦Conclusion: This study is the first to show that the appearance of post-mortem gas follows a specific distribution pattern. An association between intracardiac gas and hepatic parenchymal gas could distinguish between post- mortem-generated gas and vital air embolism. We propose that this finding provides a key for diagnosing death due to cardiac air embolism.
Resumo:
The interaction of tunneling with groundwater is a problem both from an environmental and an engineering point of view. In fact, tunnel drilling may cause a drawdown of piezometric levels and water inflows into tunnels that may cause problems during excavation of the tunnel. While the influence of tunneling on the regional groundwater systems may be adequately predicted in porous media using analytical solutions, such an approach is difficult to apply in fractured rocks. Numerical solutions are preferable and various conceptual approaches have been proposed to describe and model groundwater flow through fractured rock masses, ranging from equivalent continuum models to discrete fracture network simulation models. However, their application needs many preliminary investigations on the behavior of the groundwater system based on hydrochemical and structural data. To study large scale flow systems in fractured rocks of mountainous terrains, a comprehensive study was conducted in southern Switzerland, using as case studies two infrastructures actually under construction: (i) the Monte Ceneri base railway tunnel (Ticino), and the (ii) San Fedele highway tunnel (Roveredo, Graubiinden). The chosen approach in this study combines the temporal and spatial variation of geochemical and geophysical measurements. About 60 localities from both surface and underlying tunnels were temporarily and spatially monitored during more than one year. At first, the project was focused on the collection of hydrochemical and structural data. A number of springs, selected in the area surrounding the infrastructures, were monitored for discharge, electric conductivity, pH, and temperature. Water samples (springs, tunnel inflows and rains) were taken for isotopic analysis; in particular the stable isotope composition (δ2Η, δ180 values) can reflect the origin of the water, because of spatial (recharge altitude, topography, etc.) and temporal (seasonal) effects on precipitation which in turn strongly influence the isotopic composition of groundwater. Tunnel inflows in the accessible parts of the tunnels were also sampled and, if possible, monitored with time. Noble-gas concentrations and their isotope ratios were used in selected locations to better understand the origin and the circulation of the groundwater. In addition, electrical resistivity and VLF-type electromagnetic surveys were performed to identify water bearing fractures and/or weathered areas that could be intersected at depth during tunnel construction. The main goal of this work was to demonstrate that these hydrogeological data and geophysical methods, combined with structural and hydrogeological information, can be successfully used in order to develop hydrogeological conceptual models of the groundwater flow in regions to be exploited for tunnels. The main results of the project are: (i) to have successfully tested the application of electrical resistivity and VLF-electromagnetic surveys to asses water-bearing zones during tunnel drilling; (ii) to have verified the usefulness of noble gas, major ion and stable isotope compositions as proxies for the detection of faults and to understand the origin of the groundwater and its flow regimes (direct rain water infiltration or groundwater of long residence time); and (iii) to have convincingly tested the combined application of a geochemical and geophysical approach to assess and predict the vulnerability of springs to tunnel drilling. - L'interférence entre eaux souterraines et des tunnels pose des problèmes environnementaux et de génie civile. En fait, la construction d'un tunnel peut faire abaisser le niveau des nappes piézométriques et faire infiltrer de l'eau dans le tunnel et ainsi créer des problème pendant l'excavation. Alors que l'influence de la construction d'un tunnel sur la circulation régionale de l'eau souterraine dans des milieux poreux peut être prédite relativement facilement par des solution analytiques de modèles, ceci devient difficile dans des milieux fissurés. Dans ce cas-là, des solutions numériques sont préférables et plusieurs approches conceptuelles ont été proposées pour décrire et modéliser la circulation d'eau souterraine à travers les roches fissurées, en allant de modèles d'équivalence continue à des modèles de simulation de réseaux de fissures discrètes. Par contre, leur application demande des investigations importantes concernant le comportement du système d'eau souterraine basées sur des données hydrochimiques et structurales. Dans le but d'étudier des grands systèmes de circulation d'eau souterraine dans une région de montagnes, une étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction: (i) Le tunnel ferroviaire de base du Monte Ceneri (Tessin) et (ii) le tunnel routière de San Fedele (Roveredo, Grisons). L'approche choisie dans cette étude est la combinaison de variations temporelles et spatiales des mesures géochimiques et géophysiques. Environs 60 localités situées à la surface ainsi que dans les tunnels soujacents ont été suiviès du point de vue temporel et spatial pendant plus de un an. Dans un premier temps le projet se focalisait sur la collecte de données hydrochimiques et structurales. Un certain nombre de sources, sélectionnées dans les environs des infrastructures étudiées ont été suivies pour le débit, la conductivité électrique, le pH et la température. De l'eau (sources, infiltration d'eau de tunnel et pluie) a été échantillonnés pour des analyses isotopiques; ce sont surtout les isotopes stables (δ2Η, δ180) qui peuvent indiquer l'origine d'une eaux, à cause de la dépendance d'effets spatiaux (altitude de recharge, topographie etc.) ainsi que temporels (saisonaux) sur les précipitations météoriques , qui de suite influencent ainsi la composition isotopique de l'eau souterraine. Les infiltrations d'eau dans les tunnels dans les parties accessibles ont également été échantillonnées et si possible suivies au cours du temps. La concentration de gaz nobles et leurs rapports isotopiques ont également été utilisées pour quelques localités pour mieux comprendre l'origine et la circulation de l'eau souterraine. En plus, des campagnes de mesures de la résistivité électrique et électromagnétique de type VLF ont été menées afin d'identifier des zone de fractures ou d'altération qui pourraient interférer avec les tunnels en profondeur pendant la construction. Le but principal de cette étude était de démontrer que ces données hydrogéologiques et géophysiques peuvent être utilisées avec succès pour développer des modèles hydrogéologiques conceptionels de tunnels. Les résultats principaux de ce travail sont : i) d'avoir testé avec succès l'application de méthodes de la tomographie électrique et des campagnes de mesures électromagnétiques de type VLF afin de trouver des zones riches en eau pendant l'excavation d'un tunnel ; ii) d'avoir prouvé l'utilité des gaz nobles, des analyses ioniques et d'isotopes stables pour déterminer l'origine de l'eau infiltrée (de la pluie par le haut ou ascendant de l'eau remontant des profondeurs) et leur flux et pour déterminer la position de failles ; et iii) d'avoir testé d'une manière convainquant l'application combinée de méthodes géochimiques et géophysiques pour juger et prédire la vulnérabilité de sources lors de la construction de tunnels. - L'interazione dei tunnel con il circuito idrico sotterraneo costituisce un problema sia dal punto di vista ambientale che ingegneristico. Lo scavo di un tunnel puô infatti causare abbassamenti dei livelli piezometrici, inoltre le venute d'acqua in galleria sono un notevole problema sia in fase costruttiva che di esercizio. Nel caso di acquiferi in materiale sciolto, l'influenza dello scavo di un tunnel sul circuito idrico sotterraneo, in genere, puô essere adeguatamente predetta attraverso l'applicazione di soluzioni analitiche; al contrario un approccio di questo tipo appare inadeguato nel caso di scavo in roccia. Per gli ammassi rocciosi fratturati sono piuttosto preferibili soluzioni numeriche e, a tal proposito, sono stati proposti diversi approcci concettuali; nella fattispecie l'ammasso roccioso puô essere modellato come un mezzo discreto ο continuo équivalente. Tuttavia, una corretta applicazione di qualsiasi modello numerico richiede necessariamente indagini preliminari sul comportamento del sistema idrico sotterraneo basate su dati idrogeochimici e geologico strutturali. Per approfondire il tema dell'idrogeologia in ammassi rocciosi fratturati tipici di ambienti montani, è stato condotto uno studio multidisciplinare nel sud della Svizzera sfruttando come casi studio due infrastrutture attualmente in costruzione: (i) il tunnel di base del Monte Ceneri (canton Ticino) e (ii) il tunnel autostradale di San Fedele (Roveredo, canton Grigioni). L'approccio di studio scelto ha cercato di integrare misure idrogeochimiche sulla qualité e quantité delle acque e indagini geofisiche. Nella fattispecie sono state campionate le acque in circa 60 punti spazialmente distribuiti sia in superficie che in sotterraneo; laddove possibile il monitoraggio si è temporalmente prolungato per più di un anno. In una prima fase, il progetto di ricerca si è concentrato sull'acquisizione dati. Diverse sorgenti, selezionate nelle aree di possibile influenza attorno allé infrastrutture esaminate, sono state monitorate per quel che concerne i parametri fisico-chimici: portata, conduttività elettrica, pH e temperatura. Campioni d'acqua sono stati prelevati mensilmente su sorgenti, venute d'acqua e precipitazioni, per analisi isotopiche; nella fattispecie, la composizione in isotopi stabili (δ2Η, δ180) tende a riflettere l'origine delle acque, in quanto, variazioni sia spaziali (altitudine di ricarica, topografia, etc.) che temporali (variazioni stagionali) della composizione isotopica delle precipitazioni influenzano anche le acque sotterranee. Laddove possibile, sono state campionate le venute d'acqua in galleria sia puntualmente che al variare del tempo. Le concentrazioni dei gas nobili disciolti nell'acqua e i loro rapporti isotopici sono stati altresi utilizzati in alcuni casi specifici per meglio spiegare l'origine delle acque e le tipologie di circuiti idrici sotterranei. Inoltre, diverse indagini geofisiche di resistività elettrica ed elettromagnetiche a bassissima frequenza (VLF) sono state condotte al fine di individuare le acque sotterranee circolanti attraverso fratture dell'ammasso roccioso. Principale obiettivo di questo lavoro è stato dimostrare come misure idrogeochimiche ed indagini geofisiche possano essere integrate alio scopo di sviluppare opportuni modelli idrogeologici concettuali utili per lo scavo di opere sotterranee. I principali risultati ottenuti al termine di questa ricerca sono stati: (i) aver testato con successo indagini geofisiche (ERT e VLF-EM) per l'individuazione di acque sotterranee circolanti attraverso fratture dell'ammasso roccioso e che possano essere causa di venute d'acqua in galleria durante lo scavo di tunnel; (ii) aver provato l'utilità di analisi su gas nobili, ioni maggiori e isotopi stabili per l'individuazione di faglie e per comprendere l'origine delle acque sotterranee (acque di recente infiltrazione ο provenienti da circolazioni profonde); (iii) aver testato in maniera convincente l'integrazione delle indagini geofisiche e di misure geochimiche per la valutazione della vulnérabilité delle sorgenti durante lo scavo di nuovi tunnel. - "La NLFA (Nouvelle Ligne Ferroviaire à travers les Alpes) axe du Saint-Gothard est le plus important projet de construction de Suisse. En bâtissant la nouvelle ligne du Saint-Gothard, la Suisse réalise un des plus grands projets de protection de l'environnement d'Europe". Cette phrase, qu'on lit comme présentation du projet Alptransit est particulièrement éloquente pour expliquer l'utilité des nouvelles lignes ferroviaires transeuropéens pour le développement durable. Toutefois, comme toutes grandes infrastructures, la construction de nouveaux tunnels ont des impacts inévitables sur l'environnement. En particulier, le possible drainage des eaux souterraines réalisées par le tunnel peut provoquer un abaissement du niveau des nappes piézométriques. De plus, l'écoulement de l'eau à l'intérieur du tunnel, conduit souvent à des problèmes d'ingénierie. Par exemple, d'importantes infiltrations d'eau dans le tunnel peuvent compliquer les phases d'excavation, provoquant un retard dans l'avancement et dans le pire des cas, peuvent mettre en danger la sécurité des travailleurs. Enfin, l'infiltration d'eau peut être un gros problème pendant le fonctionnement du tunnel. Du point de vue de la science, avoir accès à des infrastructures souterraines représente une occasion unique d'obtenir des informations géologiques en profondeur et pour échantillonner des eaux autrement inaccessibles. Dans ce travail, nous avons utilisé une approche pluridisciplinaire qui intègre des mesures d'étude hydrogéochimiques effectués sur les eaux de surface et des investigations géophysiques indirects, tels que la tomographic de résistivité électrique (TRE) et les mesures électromagnétiques de type VLF. L'étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction, qui sont le tunnel ferroviaire de base du Monte Ceneri, une partie du susmentionné projet Alptransit, situé entièrement dans le canton Tessin, et le tunnel routière de San Fedele, situé a Roveredo dans le canton des Grisons. Le principal objectif était de montrer comment il était possible d'intégrer les deux approches, géophysiques et géochimiques, afin de répondre à la question de ce que pourraient être les effets possibles dû au drainage causés par les travaux souterrains. L'accès aux galeries ci-dessus a permis une validation adéquate des enquêtes menées confirmant, dans chaque cas, les hypothèses proposées. A cette fin, nous avons fait environ 50 profils géophysiques (28 imageries électrique bidimensionnels et 23 électromagnétiques) dans les zones de possible influence par le tunnel, dans le but d'identifier les fractures et les discontinuités dans lesquelles l'eau souterraine peut circuler. De plus, des eaux ont été échantillonnés dans 60 localités situées la surface ainsi que dans les tunnels subjacents, le suivi mensuelle a duré plus d'un an. Nous avons mesurés tous les principaux paramètres physiques et chimiques: débit, conductivité électrique, pH et température. De plus, des échantillons d'eaux ont été prélevés pour l'analyse mensuelle des isotopes stables de l'hydrogène et de l'oxygène (δ2Η, δ180). Avec ces analyses, ainsi que par la mesure des concentrations des gaz rares dissous dans les eaux et de leurs rapports isotopiques que nous avons effectués dans certains cas spécifiques, il était possible d'expliquer l'origine des différents eaux souterraines, les divers modes de recharge des nappes souterraines, la présence de possible phénomènes de mélange et, en général, de mieux expliquer les circulations d'eaux dans le sous-sol. Le travail, même en constituant qu'une réponse partielle à une question très complexe, a permis d'atteindre certains importants objectifs. D'abord, nous avons testé avec succès l'applicabilité des méthodes géophysiques indirectes (TRE et électromagnétiques de type VLF) pour prédire la présence d'eaux souterraines dans le sous-sol des massifs rocheux. De plus, nous avons démontré l'utilité de l'analyse des gaz rares, des isotopes stables et de l'analyses des ions majeurs pour la détection de failles et pour comprendre l'origine des eaux souterraines (eau de pluie par le haut ou eau remontant des profondeurs). En conclusion, avec cette recherche, on a montré que l'intégration des ces informations (géophysiques et géochimiques) permet le développement de modèles conceptuels appropriés, qui permettant d'expliquer comment l'eau souterraine circule. Ces modèles permettent de prévoir les infiltrations d'eau dans les tunnels et de prédire la vulnérabilité de sources et des autres ressources en eau lors de construction de tunnels.
Resumo:
Résumé Des développements antérieurs, au sein de l'Institut de Géophysique de Lausanne, ont permis de développer des techniques d'acquisition sismique et de réaliser l'interprétation des données sismique 2D et 3D pour étudier la géologie de la région et notamment les différentes séquences sédimentaires du Lac Léman. Pour permettre un interprétation quantitative de la sismique en déterminant des paramètres physiques des sédiments la méthode AVO (Amplitude Versus Offset) a été appliquée. Deux campagnes sismiques lacustres, 2D et 3D, ont été acquises afin de tester la méthode AVO dans le Grand Lac sur les deltas des rivières. La géométrie d'acquisition a été repensée afin de pouvoir enregistrer les données à grands déports. Les flûtes sismiques, mises bout à bout, ont permis d'atteindre des angles d'incidence d'environ 40˚ . Des récepteurs GPS spécialement développés à cet effet, et disposés le long de la flûte, ont permis, après post-traitement des données, de déterminer la position de la flûte avec précision (± 0.5 m). L'étalonnage de nos hydrophones, réalisé dans une chambre anéchoïque, a permis de connaître leur réponse en amplitude en fonction de la fréquence. Une variation maximale de 10 dB a été mis en évidence entre les capteurs des flûtes et le signal de référence. Un traitement sismique dont l'amplitude a été conservée a été appliqué sur les données du lac. L'utilisation de l'algorithme en surface en consistante a permis de corriger les variations d'amplitude des tirs du canon à air. Les sections interceptes et gradients obtenues sur les deltas de l'Aubonne et de la Dranse ont permis de produire des cross-plots. Cette représentation permet de classer les anomalies d'amplitude en fonction du type de sédiments et de leur contenu potentiel en gaz. L'un des attributs qui peut être extrait des données 3D, est l'amplitude de la réflectivité d'une interface sismique. Ceci ajoute une composante quantitative à l'interprétation géologique d'une interface. Le fond d'eau sur le delta de l'Aubonne présente des anomalies en amplitude qui caractérisent les chenaux. L'inversion de l'équation de Zoeppritz par l'algorithme de Levenberg-Marquardt a été programmée afin d'extraire les paramètres physiques des sédiments sur ce delta. Une étude statistique des résultats de l'inversion permet de simuler la variation de l'amplitude en fonction du déport. On a obtenu un modèle dont la première couche est l'eau et dont la seconde est une couche pour laquelle V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s. Abstract A system to record very high resolution (VHR) seismic data on lakes in 2D and 3D was developed at the Institute of Geophysics, University of Lausanne. Several seismic surveys carried out on Lake Geneva helped us to better understand the geology of the area and to identify sedimentary sequences. However, more sophisticated analysis of the data such as the AVO (Amplitude Versus Offset) method provides means of deciphering the detailed structure of the complex Quaternary sedimentary fill of the Lake Geneva trough. To study the physical parameters we applied the AVO method at some selected places of sediments. These areas are the Aubonne and Dranse River deltas where the configurations of the strata are relatively smooth and the discontinuities between them easy to pick. A specific layout was developed to acquire large incidence angle. 2D and 3D seismic data were acquired with streamers, deployed end to end, providing incidence angle up to 40˚ . One or more GPS antennas attached to the streamer enabled us to calculate individual hydrophone positions with an accuracy of 50 cm after post-processing of the navigation data. To ensure that our system provides correct amplitude information, our streamer sensors were calibrated in an anechoic chamber using a loudspeaker as a source. Amplitude variations between the each hydrophone were of the order of 10 dB. An amplitude correction for each hydrophone was computed and applied before processing. Amplitude preserving processing was then carried out. Intercept vs. gradient cross-plots enable us to determine that both geological discontinuities (lacustrine sediments/moraine and moraine/molasse) have well defined trends. A 3D volume collected on the Aubonne river delta was processed in order ro obtain AVO attributes. Quantitative interpretation using amplitude maps were produced and amplitude maps revealed high reflectivity in channels. Inversion of the water bottom of the Zoeppritz equation using the Levenberg-Marquadt algorithm was carried out to estimate V P , V S and ρ of sediments immediately under the lake bottom. Real-data inversion gave, under the water layer, a mud layer with V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s.