192 resultados para Décharge à pression atmosphérique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : Due to anthropogenic impacts and natural fluctuations, fish usually have to cope with constantly changing and often hostile environments. Whereas adult fish have various possibilities to counteract unfavourable environmental conditions, embryos have much fewer options. Besides by their developing immune system, they are protected by the egg envelopes and several immune substances provided by their mothers. In addition to this, they may also adjust their hatching timing in reaction to various risks. However, individuals may vary in their defensive potential. This variation may be either based on their genetics and/or on differential maternal investments and may be dependent on the experienced stress. Nevertheless, in fish, the impact of such parental contributions on embryo and/or juvenile viability is still poorly investigated. The main objective of this thesis was to investigate the importance of paternal (i.e. genetic) and maternal (i.e. genetic + egg investment) contributions to offspring viability under different environmental conditions and at different life stages. In order to investigate this, we used gametes of various salmonids for in vitro fertilisation experiments based on full-factorial breeding designs. The individual studies are summarised in the following chapters: In the first chapter, we tested the effectiveness of the embryonic immune system in Lake whitefish (Coregonus palaea). Namely, we investigated paternal and maternal contributions to the embryos' tolerance to different kinds of pathogen exposure. Additionally, we tested whether an early sub-léthal exposure has a positive or a negative effect on an embryo's susceptibility to later pathogen exposures with the same pathogen. We found that pre-challenged embryos were more susceptible to future challenges. Moreover, pathogen susceptibility was dependent on maternal investments and/or the embryos' own genetics, depending on the challenge level. Chapter 2 summarises a similar study with brown trout (Salmo trutta). In addition to the previously described investigations, we analysed if genetic effects on offspring viability are mediated either by parental MHC genotypes or relatedness based on neutral microsatellite markers, and we tested if males signal their genetic quality either by their body size or their melanin-based skin colouration. We found that embryo survival was lower at higher stress levels and dependent on the embryos' genetics. Addirionally, parents with similar and/or, very common MHC genotypes had higher offspring viabilities. Finally, darker males produced more viable offspring. In the first two chapters we investigated the embryos' defensive potential based on their immune system, i.e. their pathogen tolerance. In chapter 3 we investigate whether hatching timing of Lake whitefìsh (C. palaea) is dependent on parental contributions and/or on pathogen pressure, and whether there are parental-environmental interactions. We found that whitefish embryos hatch earlier under increasing pathogen pressure. Moreover, hatching timing was affected by embryo genetics and/or maternally provided resources, but the magnitude of the effect was dependent on the pathogen. pressure. We also found a significant paternal-environmental interaction, indicating that the hatching efficiency of a certain sib group is dependent on the pathogen environment. Chapter 4 describes an analogous study with brown trout (S. trutta), with similar findings. In the former chapters, we only looked at offspring performance during the embryonic period, and only under semi-natural conditions. In chapter 5 we now test the performance and viability of embryonic and juvenile brown trout (S. trutta) under natural conditions. To measure embryo viability, we put them in brood boxes, buried them in the gravel of a natural river, and analysed survival after several months. To investigate juvenile survival and performance, wé reared embryos under different stress levels in the laboratory and subsequently released the resulting hatchlings in to a closed river section. Juvenile size and survival was then determined one year later. Additionally, we investigated if sires differ in their genetic quality, determined by embryo and juvenile survival as well as juvenile size, and if they signal their quality by either body size or melanin-based body darkness. We found hat juvenile size was dependent on genetic effects and on maternal investment, whereas this was neither the case for embryo nor for juvenile survival. Additionally, we found that offspring of darker males grew larger, and larger juveniles had also an increased survival. Finally, we found acarry-over effect of the early non-lethal challenge: exposing embryos to higher stress levels resulted in smaller juveniles. To evaluate the long-term performance of differently treated groups, mark-recapture studies are inevitable. For this purpose, effective mass-marking techniques are essential. In chapter 6 we tested the suitability of the fluorescent pigment spray marking method for the mass marking of European graylings (Thymallus thymallus), with very promising results. Our in vitro fertilisation studies on whitefish may reveal new insights on potential genetic benefits of mate choice, but the mating system of whitefish under natural conditions is still poorly investigated. In order to study this, we installed underwater cameras at the spawning place of a Coregonus suidteri population, recorded the whole mating period and subsequently analysed the recordings. Confirmations of previous findings as well as exciting new observations are listed and discussed in chapter 7. Dus aux impacts anthropogéniques et aux fluctuations naturelles, les poissons doivent faire face à des environnements en perpétuel changement. Ces changements font que les poissons doivent s'adapter à de nouvelles situations, souvent hostiles pour eux. Les adultes ont différentes possibilités d'échapper à un environnement peu favorable, ce n'est par contre pas le cas des embryons. Les embryons sont protégés d'une part par leur système immunitaire en développement, d'autre part, par la coquille de l'eeuf et différentes substances immunitaires fournies par leur mère. De plus, ils sont capables d'influencer leur propre date d'éclosion en réponse à différents facteurs de stress. Malgré tout, les individus varient dans leur capacité à se défendre. Cette variation peut être basé sur des facteurs génétiques et/ou sur des facteurs maternels, et est dépendante du stress subi. Néanmoins, chez les poissons, l'impact de telles contributions parentales sur la survie d'embryons et/ou juvéniles est peu étudié. L'objectif principal de cette thèse a été d'approfondir les connaissances sur l'importance de la contribution paternelle (c.a.d. génétique) et maternelle (c.a.d. génétique + investissement dans l'oeuf) sur la survie des jeunes dans différentes conditions expérimentales et stades de vie. Pour faire ces analyses, nous avons utilisé des gamètes de divers salmonidés issus de croisements 'full-factorial'. Les différentes expériences sont résumées dans les chapitres suivants: Dans le premier chapitre, nous avons testé l'efficacité du système immunitaire des embryons chez les corégones (Coregonus palea). Plus précisément nous avons étudié la contribution paternelle et maternelle à la tolérance des embryons à différents niveaux de stress pathogène. Nous avons aussi testé, si une première exposition non létale à un pathogène avait un effet positif ou négatif sur la susceptibilité d'un embryon a une deuxième exposition au même pathogène. Nous avons trouvé que des embryons qui avaient été exposés une première fois étaient plus sensibles au pathogène par la suite. Mais aussi que la sensibilité au pathogène était dépendante de l'investissement de la mère et/ou des gènes de l'embryon, dépendamment du niveau de stress. Le deuxième chapitre résume une étude similaire avec des truites (Salmo truffa). Nous avons examiné, si la survie des jeunes variait sous différentes intensités de stress, et si la variance observée était due aux gènes des parents. Nous avons aussi analysé si les effets génétiques sur la survie des juvéniles étaient dus au MHC (Major Histocompatibility Complex) ou au degré de parenté des parents. De plus, nous avons analysé si les mâles signalaient leur qualité génétique par la taille du corps ou par leur coloration noire, due à la mélanine. On a trouvé que la survie des embryons était plus basse quand le niveau de stress était plus haut mais que la variation restait dépendante de la génétique des embryons. De plus, les parents avec des MHC similaires et/ou communs avaient des embryons avec une meilleure survie. Par contre, des parents avec un degré de parenté plus haut produisent des embryons avec une survie plus mauvaise. Finalement nous avons montré que les mâles plus foncés ont des embryons qui survivent mieux, mais que la taille des mâles n'a pas d'influence sur la survie de ces mêmes embryons. Dans les deux premiers chapitres, nous avons étudié le potentiel de défense des embryons basé sur leur système immunitaire, c.a.d. leur tolérance aux pathogènes. Dans le troisième chapitre, nous nous intéressons à la date d'éclosion des corégones (C. palea), pour voir si elle est influencée par les parents ou par la pression des pathogènes, et si il y a une interaction entre ces deux facteurs. Nous avons trouvé que les jeunes naissent plus rapidement lorsque la pression en pathogènes augmente. La date d'éclosion est influencée par la génétique des embryons et/ou l'investissement des parents, mais c'est la magnitude des effets qui est dépendante de la pression du pathogène. Nous avons aussi trouvé une interaction entre l'effet paternel et l'environnement, ce qui indique que la rapidité d'éclosion de certains croisements est dépendante des pathogènes dans l'environnement. Le chapitre 4 décrit une étude analogue avec de truites (S. truffa), avec des résultats sitzimilaires. Dans les précédents chapitres nous nous sommes uniquement concentrés sur les performances des jeunes durant leur stade embryonnaire, et seulement dans des conditions semi naturelles. Dans le chapitre 5 nous testons la performance et la viabilité des embryons et de juvéniles de truites (S. truffa) dans des conditions naturelles. Nous avons trouvé que la taille des juvéniles était dépendante d'effets génétiques et de l'investissement maternel, mais ceci n'était ni les cas pour les survie des embryons et des juvéniles. De plus, nous avons trouvé que les jeunes des mâles plus foncés devenaient plus grands et que les grands ont un meilleur taux de survie. Finalement nous avons trouvé un 'carry-over effect' d'une première exposition non létale à un pathogène: exposer des embryons à des plus hauts niveaux de stress donnait des juvéniles plus petits. Pour évaluer la performance à long terme de groupes traités dé manières différentes, une méthode de marquage-recapture est inévitable. Pour cette raison, des techniques de marquage en masse sont nécessaires. Dans le chapitre 6, nous avons testé l'efficacité de la technique `fluorescent pigment spray marking' pour le marquage en masse de l'Ombre commun (Thymallus thymallus), avec des résultats très prometteurs. Les études de fertilisations in vitro avec les corégones nous donnent une idée du potentiel bénéfice génétique que représente la sélection d'un bon partenaire, même si le système d'accouplement des corégones en milieu naturel reste peu connu. Pour combler cette lacune, nous avons installé des caméras sous-marines autour de la frayère d'une population de corégones (C. suidteri), nous avons enregistré toute la période de reproduction et nous avons analysé les données par la suite. Ainsi, nous avons été capables de confirmer bien des résultats trouvés précédemment, mais aussi de faire de nouvelles observations. Ces résultats sont reportés dans le septième chapitre, où elles sont comparées avec des observations antérieures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse :Le céfépime a été associé à un taux de mortalité supérieur à celui des autres bêta-lactamines chez les patients traités pour un sepsis sévère. Une des hypothèses avancées pour expliquer ces échecs thérapeutiques sont de possibles effets secondaires cachés (par ex. neurologiques) ou des paramètres pharmacocinétiques/pharmacodynamiques (PK/PD) inadaptés. Le présent travail a étudié cette problématique en mesurant prospectivement la pharmacocinétique du céfépime chez 21 patients consécutifs hospitalisés aux soins intensifs adultes (SIAD) pour une pneumonie nosocomiale. La population étudiée avec un âge médian 55,1 ans, a reçu par voie intraveineuse du céfépime à raison de 2 g toutes les 12 heures pour une clairance de la créatinine (Clcr)>50 mI/ min, et 2 g toutes les 24 heures ou 36 heures pour une Clcr<50 ml /min. Les taux plasmatiques de céfépime ont été mesurés à plusieurs reprises avant et après administration du médicament après la lèoe dose et à l'état d'équilibre par chromatographie en phase liquide à haute pression. Les taux plasmatiques ont considérablement varié entre les patients. Cent pour cent (21/21) des patients ont eu une durée appropriée d'antibiothérapie avec des taux plasmatiques supérieures à la CMI du céfépime (T>CMI>50%) pour les agents pathogènes retrouvés dans cette étude (CMI<4 mg/I), mais seulement 45-65% d'entre eux ont eu une couverture appropriée pour les agents pathogènes potentiels présentant une CMI> 8 mg/I pour le céfépime. Deux patients avec une insuffisance rénale (Clcr<30 ml/min) ont présenté des symptômes compatibles avec une épilepsie non-convulsive (état confusionnel et myoclonies) attribuée dans un 2ème temps à une toxicité du céfépime après que les taux plasmatiques aient été communiqués aux soignants qui ont suspendu l'antibiothérapie avec disparition des symptômes. Les résultats de cette étude empirique confirment l'existence d'effets secondaires cachés et de paramètres PK/PD inappropriés (pour les agents pathogènes ayant des CMI de limite supérieure) dans notre population de SIAD. En outre, ils mettent en évidence une fenêtre thérapeutique efficace pour une posologie de céfépime de 2 g toutes les 12 heures chez les patients ayant une Clcr>50 ml/min infectés par des pathogènes avec des CMI pour le céfépime <4 mg/I. Les échecs thérapeutiques constatés dans cette étude sont probablement liés à des taux sériques inadaptés, résultant de la difficulté de prescription dans les situations cliniques complexes. Dans ce contexte, un prompt dosage plasmatique du céfépime doit être considéré en cas de diminution de la Clcr ou en présence de CMI élevées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses études cliniques ont révélé une corrélation étroite entre un régime alimentaire riche en sel et le développement d'une hypertrophie ventriculaire gauche. Cette association a été classiquement attribuée aux effets hypertensifs à long terme d'une alimentation riche en sel. Toutefois, les études épidémiologiques ont également démontré que l'hypertrophie ventriculaire gauche peut survenir indépendamment de changements de pression artérielle.¦L'ingestion de sel n'étant pas distribuée de manière homogène durant la journée mais ayant lieu principalement durant les repas, nous émettons l'hypothèse que chaque repas riche en sel induit une augmentation aiguë de la pression artérielle, des pressions de remplissage cardiaque, du volume d'éjection systolique et du débit cardiaque. L'augmentation résultante du travail cardiaque pourrait ainsi à la longue entraîner une hypertrophie cardiaque.¦Pour tester si un repas riche en sel conduit à des modifications hémodynamiques favorisant l'hypertrophie cardiaque, nous avons comparé chez la même personne jeune et en bonne santé la réponse hémodynamique à un repas modérément salé (45 mmol) à celle d'un repas riche en sel (165 mmol de sodium). Les repas ont été pris de manière randomisée à 7 jours d'intervalle. Divers paramètres hémodynamiques ont été mesurés en continu avant et jusqu'à 140 minutes après chaque repas. Nos résultats montrent que les augmentations post-prandiales du volume d'éjection systolique et du travail cardiaque ont été plus prononcées après un repas à haute teneur en sel par rapport à un repas modérément salé.¦Nous spéculons que des apports chroniques en sel induisent des charges hémodynamiques répétées. Etant donné que la concentration plasmatique de sodium, qui est augmentée après un repas salé, est également capable de stimuler la croissance des myocytes cardiaques, il est possible que la combinaison sur des mois ou des années de pics hypernatrémiques post-prandiaux et de charges cardiaques soit responsable de l'hypertrophie cardiaque souvent observée avec une alimentation riche en sel.¦-¦Many clinical studies have shown a close correlation between a chronic high salt diet and the development of left ventricular hypertrophy. This association has been classically attributed to the long-term hypertensive effects of a high salt diet. However, epidemiological studies have also shown that left ventricular hypertrophy may occur independently of changes in arterial pressure.¦Since salt ingestion during a high salt diet is not distributed evenly over a 24-hr period, but occurs essentially during meal periods, we speculate that each acute salt load could lead to greater acute increases in blood pressure, heart filling pressure, stroke volume and cardiac output, putting an additional work load on the heart, promoting in the long run cardiac hypertrophy.¦To test whether a high salt meal leads to hemodynamic changes that may favor cardiac hypertrophy, we compared in the same healthy young individual the response to a moderately salted meal (45 mmol) and to a high-salt meal (165 mmol sodium), given in a random order on separate days, on various cardiovascular parameters that were continuously monitored before and up to 140 minutes after the meal. Our results show that the post-prandial increases in stroke volume, and cardiac work were more pronounced after a high-salt meal than after a low-salt meal.¦We speculate that repetitive salt loads associated with a high salt diet may lead to repetitive hemodynamic loads. Since plasma sodium concentration, which is increased after a salty meal, is also capable to stimulate myocyte growth, it is possible that the combination of post-prandial hypernatremic peaks and of cardiac loads may be responsible, when repeated many times over period of months, of the cardiac hypertrophy often seen with a high salt diet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthese :Comparaison des effets vasculaires et tubulaires rénaux de plusieurs antagonistes des récepteurs de |'angiotensine II en combinaison avec un diurétique thiazidique chez l'humainObjectif : Le but de ce travail était d'investiguer si les antagonistes des récepteurs AT1 de l'angiotensine II (ARA2) entraînent un blocage équivalent des récepteurs au niveau vasculaire et au niveau rénal, en particulier lorsque le système rénine- angiotensine est stimulé par l'administration d'un diurétique thiazidique. Méthode : trente volontaires masculins en bonne santé ont participé à cette étude randomisée, contrôlée, en simple insu. Nous avons mesuré les variations de pression artérielle, d'hémodynamique rénale ainsi que la réponse tubulaire rénale à une perfusion d'angiotensine II 3ng/kg/min administrée sur 1 heure. Ceci avant traitement puis après sept jours d'administration, 24 heures après la dernière dose de médicament. Nous avons comparé l'irbésartan 300 mg seul ou en association avec 12.5 ou 25 mg d'hydrochlorothiazide. (irbésartan 300/12.5 ; irbésartan 300/25). Nous avons également comparé les effets de l'irbésartan 300/25 au losartan 100 mg, au valsartan 160 mg ainsi qu'à l'olmésartan 20 mg, tous administrés avec 25 mg d'hydrochlorothiazide. Chaque participant a été randomisé pour recevoir 2 traitements de 7 jours espacés d'une période d'une semaine sans traitement. Résultats: La réponse de la pression artérielle à |'angiotensine II exogène était bloquée >90% avec l'irbésartan 300 mg seul ou en association avec le diurétique. Il en était de même avec l'olmésartan 20/25. Par contre le blocage n'était que de 60% environ dans les groupes valsartan 160/25 et losartan 100/25. Au niveau rénal, |'angiotensine II exogène réduisait le flux plasmatique rénal de 36% en pré- traitement. Dans les groupes recevant l'irbésartan 300 mg et l'olmésartan 20 mg associés à l'hydrochlorothiazide 25 mg, la vasoconstriction rénale était bloquée presque entièrement alors qu'el|e ne |'était que partiellement avec le valsartan 160/25 et le losartan 100/25 (34 et 45%, respectivement). En pré-traitement, au niveau tubulaire, l'angiotensine II exogène réduisait le volume urinaire de 84% et l'excrétion urinaire de sodium de 65 %. Les effets tubulaires n'étaient que partiellement bloqués par l'administration d'ARA2. Conclusion: Ces résultats démontrent que les ARA; aux doses maximales recommandées ne bloquent pas aussi efficacement les récepteurs ATI au niveau tubulaire qu'au niveau vasculaire. Cette observation pourrait constituer une justification à l'hypothèse selon laquelle des doses plus importantes d'ARA2 seraient nécessaires afin d'obtenir une meilleure protection d'organe. De plus, nos résultats confirment qu'i| y a d'importantes différences entre les ARA2, relatives à leur capacité d'induire un blocage prolongé sur 24 heures des récepteurs AT1 au niveau vasculaire et tubulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary In his theory On the Origin of Species by Means of Natural Selection (1859), Darwin describes evolution as a gradual change in population over time and that natural selection is a process that caused evolution. Because quantitative variation in species is partly influenced by several genes and thus heritable, association between levels of genetic variation at neutral markers and at quantitative traits and their partitioning within and among populations are important to study mechanisms that drive evolution in populations. Most studies addressing quantitative variation in plants focused on morphological and life history traits but not in traits affecting reproductive success. The aim of this thesis is to better understand how patterns of variation for neutral molecular markers and phenotypic traits drive the evolution of reproduction and defensive mechanisms in six European populations of Silene latifolia, a dioecious plant species. We found evidence for extremely high within and between population variation at six microsatellite loci and at most quantitative traits studied in plants grown under standardized conditions (morphology, life history and reproductive traits). Interestingly, there was clinal variation between age at first flowering and latitude. This pattern is likely due to natural selection since differentiation of this trait was high, heritable and probably higher than differentiation at neutral markers. Our study focused on sex specific selective pressures: mechanisms of intersexual coadaptation and defence mechanism against the seed predator Hadena bicruris. To address divergence at reproductive traits, we studied male and female population of origin effects and in particular pollen competitive ability on male post-pollination success in the study populations with within and between populations crosses. We crossed the same female plant with pollen from a male within the same population of origin and pollen from two males from two distinct populations, using a fixed tester male as a competitor. Additionally, we conducted control crosses with pollen from each male as a single donor. We analysed paternity success of each competitor with two microsatellite loci, seed set and offspring fitness. Male population of origin showed significant among-population variation for siring success at pollen competition. In vitro pollen germination rate showed heritable variation among populations and was positively correlated to siring success. Local or foreign pollen did not have a consistent advantage. Furthermore, female population of origin affected the outcome of pollen competition in some populations. There was no difference of seed set or offspring fitness in within/ between population crosses. This suggests that reproductive divergence may occur via pollen competition in Silene latifolia. The specialist seed predator Hadena bicruris may also induce divergence between populations. We tested potential constitutive and induced defence mechanisms against the specialist predator Hadena bicruris. Because fruit wall thickness is smaller in the invasive range (Northern America) were the moth is absent, this suggests that a thicker fruit wall is a potentially defensive trait against larval attack, and that relaxed selection in the absence of the seed predator has resulted in an evolutionary loss of this defence in the invasive range. Fruit wall thickness was different among three populations. Experimental exposure to moth eggs increased fruit abortion. Fruits built after attack on exposed plants did not have thicker fruit walls compared to fruits on non-exposed plants. Furthermore, fruits with thicker fruit walls were not less profitable, nor did they require longer handling time when exposed to larvae, suggesting no defensive role of fruit wall thickness. Our results show that there is high molecular and phenotypic variation in Silene latifolia and that traits potentially involved in reproductive success both for intra-specific (between sexes) and inter-specific interactions are heritable. Different selective forces may thus interact and cause differential evolution of geographically separated Silene latifolia populations in Europe, leading to the observed differentiation. Résumé Dans sa théorie de l'évolution, L'origine des espèces, ch. 4 (1859), Darwin décrit l'évolution comme un processus continu au cours du temps à l'intérieur de populations et que la sélection naturelle en est le moteur. La variation quantitative est en partie déterminée par plusieurs gènes, donc transmissible à la descendance. Associer le niveau de variation génétique à des marqueurs neutres au niveau de la variation à des traits quantitatifs, ainsi que la répartition à l'intérieur et entre les populations d'une espèce donnée de cette variation, sont importants dans la compréhension des forces évolutives. La plupart des études scientifiques sur la variation quantitative chez les plantes se sont intéressées à la morphologie et à la phénologie mais pas aux caractères impliqués dans le succès reproducteur. L'objectif de cette thèse est de mieux comprendre comment la répartition de la variation à des marqueurs neutres et des caractères quantitatifs influence l'évolution de la reproduction et des mécanismes de défense dans six populations Européennes de l'espèce dioïque Silene latifolia. Nous avons mis en évidence une grande diversité intra et inter-population à six loci microsatellites ainsi qu'à la plupart des caractères quantitatifs mesurés (morphologie, phénologie et traits reproducteurs) sur des plantes cultivées dans des conditions standardisées. Un résultat intéressant est la présence d'un cline latitudinal pour l'âge à la floraison. Ceci est probablement une conséquence de la sélection naturelle, puisque ce caractère est différencié entre les populations étudiées, héritable et que la différenciation de ce trait est supérieure à la différenciation des marqueurs neutres étudiés. Notre étude a ensuite porté plus précisément sur les pressions de sélection spécifiques aux sexes : la coadaptation entre les sexes et les mécanismes de défense contre l'insecte granivore Hadena bicruris. Afin d'évaluer la divergence sur les traits reproducteurs, nous avons étudié les effets des populations d'origine des mâles et des femelles et en particulier le succès reproducteur des mâles après pollinisation à l'aide de croisements inter et intra-population. Nous avons pollinisé la même femelle avec du pollen provenant d'un mâle de la même population ainsi qu'avec le pollen de deux mâles provenant de deux autres populations en situation de compétition avec un pollen provenant d'une population test. Des croisements contrôle ont été réalisés avec les mêmes mâles en pollinisation pure. Nous avons évalué le succès reproducteur de chaque mâle à l'aide d'analyses de paternité ainsi que la production de graines et la fitness de la descendance. L'origine du mâle avait un effet sur la paternité. Le taux de croissance in vitro du pollen est un caractère héritable et a eu un effet positif sur le succès reproducteur. De plus, l'origine de la femelle avait un effet sur le succès des mâles en compétition dans certaines populations. Nos résultats suggèrent qu'une divergence reproductive chez Silene latifolia pourrait apparaître suite à la compétition pollinique. Nous avons ensuite testé des mécanismes potentiels de défense constitutive et induite contre l'herbivore spécialiste Hadena bicruris, un papillon nocturne qui pourrait aussi jouer un rôle dans la différenciation des populations. L'épaisseur des fruits étant plus faible dans les régions où la plante est invasive (Amérique du Nord) et où l'insecte est absent, ce trait pourrait jouer un rôle défensif. Une pression de sélection plus faible causée par l'absence de l'herbivore aurait abouti à une perte de cette défense dans ces régions. Nous avons montré que l'épaisseur du fruit est variable selon les populations. L'infestation artificielle de fruit par l'insecte induit l'abscission sélective des fruits. Les fruits produits après une infestation n'étaient pas plus épais que les fruits issus de plantes non infestées. De plus, les fruits épais n'étaient pas moins nutritifs et ne causaient pas de perte de temps pour la prédation pour les larves, ce qui suggère que l'épaisseur des fruits ne joue pas un rôle défensif. Nos résultats montrent que plusieurs pressions de sélection interviennent et interagissent dans l'évolution de populations distantes, provoquant la divergence des populations Européennes de l'espèce Silene latifolia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse analyse la défense du paradis fiscal suisse dans les négociations internationales de l'entre-deux-guerres. Pour ce faire, elle s'appuie sur un très large panel de sources inédites, tirées des archives publiques suisses, britanniques, françaises, allemandes et belges, ainsi que sur une série d'archives du monde économique et d'organisations internationales. Ce travail tente, sur cette base, de retracer l'évolution des pourparlers fiscaux et d'identifier comment les dirigeants suisses sont parvenus à écarter en leur sein les premières pressions internationales qui surviennent après la Grande Guerre à l'encontre des pratiques fiscales helvétiques. Sur fond de fuites massives d'avoirs européens en direction du refuge suisse, ces démarches étrangères à l'encontre du secret bancaire sont menées aussi bien au niveau multilatéral, au sein des débats fiscaux de la Société des Nations, que sur le plan bilatéral, à l'intérieur des négociations interétatiques pour la conclusion de conventions de double imposition et d'assistance fiscale. Pourtant, les tentatives de la part des gouvernements européens d'amorcer une coopération contre l'évasion fiscale avec leur homologue suisse échouent constamment durant l'entre-deux-guerres : non seulement aucune mesure de collaboration internationale n'est adoptée par la Confédération, mais les dirigeants helvétiques parviennent encore à obtenir dans les négociations des avantages fiscaux pour les capitaux qui sont exportés depuis la Suisse ou qui transitent par son entremise. En clair, bien loin d'être amoindrie, la compétitivité fiscale du centre économique suisse sort renforcée des discussions internationales de l'entre-deux-guerres. La thèse avance à la fois des facteurs endogènes et exogènes à la politique suisse pour expliquer cette réussite a priori surprenante dans un contexte de crise financière et monétaire aiguë. A l'intérieur de la Confédération, la grande cohésion des élites suisses facilite la défense extérieure de la compétitivité fiscale. En raison de l'anémie de l'administration fiscale fédérale, du conservatisme du gouvernement ou encore de l'interpénétration du patronat industriel et bancaire helvétique, les décideurs s'accordent presque unanimement sur le primat à une protection rigoureuse du secret bancaire. En outre, corollaire de l'afflux de capitaux en Suisse, la place financière helvétique dispose de différentes armes économiques qu'elle peut faire valoir pour défendre ses intérêts face aux gouvernements étrangers. Mais c'est surtout la conjonction de trois facteurs exogènes au contexte suisse qui a favorisé la position helvétique au sein des négociations fiscales internationales. Premièrement, après la guerre, le climat anti-fiscal qui prédomine au sein d'une large frange des élites occidentales incite les gouvernements étrangers à faire preuve d'une grande tolérance à l'égard du havre fiscal suisse. Deuxièmement, en raison de leur sous-développement, les administrations fiscales européennes n'ont pas un pouvoir suffisant pour contrecarrer la politique suisse. Troisièmement, les milieux industriels et financiers étrangers tendent à appuyer les stratégies de défense du paradis fiscal suisse, soit parce qu'ils usent eux-mêmes de ses services, soit parce que, avec la pression à la baisse qu'il engendre sur les systèmes fiscaux des autres pays, l'îlot libéral helvétique participe au démantèlement de la fiscalité progressive que ces milieux appellent de leur voeu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le glucose est le principal substrat énergétique cérébral. Sa concentration dans le cerveau est étroitement liée à la glycémie. Chez le patient neurolésé, du fait de l'augmentation des besoins énergétiques, les réserves cérébrales de glucose sont limitées. Une glycémie suffisamment élevée paraît nécessaire pour assurer un apport adéquat de glucose au cerveau. Objectifs : Le but de cette étude est de mieux comprendre la relation entre glucose cérébral et glycémie lors de lésion cérébrale en analysant la physiologie cérébrale chez des patients neurolésés. Plus précisément nous investiguerons: La relation entre le glucose cérébral et le glucose systémique et son association avec le pronostic vital, l'association entre la neuroglucopénie et différents paramètres cérébraux tel que l'hypertension intracrânienne (HTIC) ou la dysfonction énergétique et finalement l'effet d'une perfusion de glucose 10% sur le glucose cérébral lors d'état de neuroglucopénie. Méthodologie : Analyse d'une base de données prospective comportant des patients souffrant d'un traumatisme crânio-cérébral (TCC) ou une hémorragie sous- arachnoïdienne (HSA) sévères. Les patients comateux sont monitorés par un dispositif intra-parenchymateux avancé, comprenant un cathéter de microdialyse cérébrale et un capteur de PbO2. Résultats : 34 patients consécutifs (moyenne d'âge 42 ans, moyenne de temps jusqu'au début du monitoring : 1.5 jours ± 1 ; moyenne de la durée maximale du monitoring : 6 jours ± 3) ont été étudiés, 25 patients souffrant d'un TCC et 9 patients avec une HSA. Nous avons obtenu une corrélation individuelle entre le glucose cérébral et la glycémie chez 52.9 % des patients. Lorsque la glycémie est inférieure à 5 mmol/l, on observe plus fréquemment des épisodes de neuroglucopénie en comparaison aux valeurs intermédiaires de glycémie (5 - 9.9 mmol/l). Les épisodes d'HTIC (pression intracrânienne (PIC) > 20 mmHg) sont plus fréquemment associés à des épisodes de neuroglucopénie que lorsque la pression intracrânienne est normale 75 % vs. 35%. La dysfonction énergétique est plus souvent associés à des épisodes de neuroglucopénie que lorsque le LPR est normal: 55% contre 36%. Un coefficient de corrélation entre glucose cérébral et glycémie significativement plus élevé a été obtenu chez les survivants que chez les non-survivants (0.1 [interquartile range 0.02- 0.3] contre 0.32 [0.17-0.61]). Chez les patients neuroglucopéniques ayant une corrélation entre glucose cérébral et glycémie, la perfusion de glucose i.v. fait monter le glucose cérébral jusqu'à l'arrêt de la perfusion. Conclusion : Malgré une étroite relation entre glycémie et glucose cérébral en conditions stables, cette relation peut être altérée par des causes cérébrales chez les patients neurolésés montrant que la diminution de la disponibilité du glucose extracellulaire ne résulte pas uniquement d'une hypoglycémie relative mais également de causes cérébrales tel que l'hypoperfusion, l'HTIC ou la dysfonction énergétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Plusieurs études suggèrent que les populations vivant en haute altitude sont mieux protégées contre l'hypertension pulmonaire hypoxique que celles originaires de la plaine. Cependant, les mécanismes sous jacents ne sont pas bien compris. Chez les Tibétains, la synthèse augmentée par le système respiratoire de monoxyde d'azote (NO) atténue l'hypertension pulmonaire hypoxique. Il a été spéculé que ce mécanisme pourrait représenter un mode généralisé d'adaptation à la haute altitude, mais il n'existe pas de preuve directe qui consume cette hypothèse. Nous avons donc mesuré la pression artérielle pulmonaire (par échocardiographie Doppler) ainsi que la concentration du NO dans l'air exhalé chez 34 Boliviens en bonne santé, nés et ayant toujours vécus en haute altitude (3600 m) et chez 34 Caucasiens apparentés pour l'âge et le sexe, nés en basse altitude mais vivant depuis de nombreuses années à cette même haute altitude (3600 mètres). La pression artérielle pulmonaire (24.3±5.9 vs. 24.7±4.9 mm Hg) et le NO exhalé (19.2±7.2 vs. 22.5±9.5 ppb) étaient similaires chez les Boliviens et les Caucasiens. Il n'y avait aucune corrélation entre la pression artérielle pulmonaire et le NO respiratoire dans les deux groupes. Ces résultats ne fournissent donc aucune évidence que les Boliviens nés en haute altitude sont mieux protégés contre l'hypertension pulmonaire hypoxique que les Caucasiens nés à basse altitude. Cela suggère que l'atténuation de l'hypertension pulmonaire par une synthèse accrue de NO respiratoire ne représente pas un mode universel d'adaptation des populations à la haute altitude. Abstract : There is evidence that high altitude populations may be better protected from hypoxic pulmonary hypertension than low altitude natives, but the underlying mechanism is incompletely understood. In Tibetans, increased pulmonary respiratory NO synthesis attenuates hypoxic pulmonary hypertension. It has been speculated that this mechanism may represent a generalized high altitude adaptation pattern, but direct evidence for this speculation is lacking. We therefore measured systolic pulmonary-artery pressure (Doppler echocardiography) and exhaled nitric oxide (NO) in 34 healthy, middle-aged Bolivian high altitude natives and in 34 age- and sex-matched, well-acclimatized Caucasian low altitude natives living at high altitude (3600 m). The mean ± SD systolic right ventricular to right arterial pressure gradient (24.3 ± 5.9 vs. 24.7 ± 4.9 mmHg) and exhaled NO (19.2 ± 7.2 vs. 22.5 ± 9.5 ppb) were similar in Bolivians and Caucasians. There was no relationship between ,pulmonary-artery pressure and respiratory NO in the two groups. These findings provide no evidence that Bolivian high altitude natives are better protected from hypoxic pulmonary hypertension than Caucasian low altitude natives and suggest that attenuation of pulmonary hypertension by increased respiratory NO synthesis may not represent a universal adaptation pattern in highaltitude populations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pression exercée par les activités humaines menace pratiquement tous les écosystèmes aquatiques du globe. Ainsi, sous l'effet de divers facteurs tels que la pollution, le réchauffement climatique ou encore la pêche industrielle, de nombreuses populations de poissons ont vu leurs effectifs chuter et divers changements morphologiques ont été observés. Dans cette étude, nous nous sommes intéressés à une menace particulière: la sélection induite par la pêche sur la croissance des poissons. En effet, la génétique des populations prédit que la soustraction régulière des individus les plus gros peut entraîner des modifications rapides de certains traits physiques comme la croissance individuelle. Cela a par ailleurs été observé dans de nombreuses populations marines ou lacustres, dont les populations de féras, bondelles et autres corégones des lacs suisses. Toutefois, malgré un nombre croissant d'études décrivant ce phénomène, peu de plans de gestion en tiennent compte, car l'importance des effets génétiques liés à la pêche est le plus souvent négligée par rapport à l'impact des changements environnementaux. Le but premier de cette étude a donc été de quantifier l'importance des facteurs génétiques et environnementaux. Dans le premier chapitre, nous avons étudié la population de palée du lac de Joux (Coregonus palaea). Nous avons déterminé les différentiels de sélection dus à la pêche, c'est-à-dire l'intensité de la sélection sur le taux de croissance, ainsi que les changements nets de croissance au cours du temps. Nous avons observé une baisse marquée de croissance et un différentiel de sélection important indiquant qu'au moins 30% de la diminution de croissance observée était due à la pression de sélection induite par la pêche. Dans le deuxième chapitre, nous avons effectué les mêmes analyses sur deux espèces proches du lac de Brienz (C. albellus et C. fatioi) et avons observé des effets similaires dont l'intensité était spécifique à chaque espèce. Dans le troisième chapitre, nous avons analysé deux autres espèces : C. palaea et C. confusus du lac de Bienne, et avons constaté que le lien entre la pression de sélection et la diminution de croissance était influencé par des facteurs environnementaux. Finalement, dans le dernier chapitre, nous avons étudié les effets potentiels de différentes modifications de la taille des mailles des filets utilisés pour la pêche à l'aide de modèles mathématiques. Nous concluons que la pêche a un effet génétique non négligeable (et donc peu réversible) sur la croissance individuelle dans les populations observée, que cet effet est lié à la compétition pour la nourriture et à la qualité de l'environnement, et que certaines modifications simples de la taille des mailles des filets de pêche pourraient nettement diminuer l'effet de sélection et ainsi ralentir, voir même renverser la diminution de croissance observée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Ce travail de thèse s'articule autour de l'importance de l'évaluation de la fonction vasculaire et des répercussions au niveau central, cardiaque, des perturbations du réseau vasculaire. Les maladies cardiovasculaires sont prédominantes dans notre société et causes de morbidité et mortalité importante. La mesure de la pression artérielle classique reste le moyen le plus utilisé pour suivre la santé des vaisseaux, mais ne reflète pas directement ce qui se passe au niveau du coeur. La tonométrie d'aplanation permet depuis quelques années de mesurer l'onde de pouls radial, et par le biais d'une fonction mathématique de transfert validée, il est possible d'en déduire la forme et Γ amplitude de l'onde de pouls central, donc de la pression aortique centrale. Cette dernière est un reflet bien plus direct de la post-charge cardiaque, et de nombreuses études cliniques actuelles s'intéressent à cette mesure pour stratifier le risque ou évaluer l'effet d'un traitement vasculaire. Toutefois, bien que cet outil soit de plus en plus utilisé, il est rarement précisé si la latéralité de la mesure joue un rôle, sachant que certaines propriétés des membres supérieurs peuvent être affectées par un usage préférentiel (masse musculaire, densité osseuse, diamètre des artères, capillarisation musculaire, et même fonction endothéliale). On a en effet observé que ces divers paramètre étaient tous augmentés sur un bras entraîné. Dès lors on peut se poser la question de l'influence de ces adaptations physiologiques sur la mesure indirecte effectuée par le biais du pouls radial. Nous avons investigué les deux membres supérieurs de sujets jeunes et sédentaires (SED), ainsi que ceux de sujets sportifs avec un développement fortement asymétrique des bras, soit des joueurs de tennis de haut niveau (TEN). Des mesures anthropométriques incluant la composition corporelle et la circonférence des bras et avant-bras ont montré que TEN présente une asymétrie hautement significative aux deux mesures entre le bras dominant (entraîné) et l'autre, ce qui est aussi présent pour la force de serrage (mesurée au dynamomètre de Jamar). L'analyse des courbes centrales de pouls ne montre aucune différence entre les deux membres dans chaque groupe, par contre on peut observer une différence entre SED et TEN, avec un index d'augmentation diastolique qui est 50 % plus élevé chez TEN. Les index d'augmentation systolique sont identiques dans les deux groupes. On peut retenir de cette étude la validité de la méthode de tonométrie d'aplanation quel que soit le bras utilisé (dominant ou non-dominant) et ce même si une asymétrie conséquente est présente. Ces données sont clairement nouvelles et permettent de s'affranchir de cette variable dans la mesure d'un paramètre cardiovasculaire dont l'importance est actuellement grandissante. Les différences d'index diastolique sont expliquées par la fréquence cardiaque et la vitesse de conduction de l'onde de pouls plus basses chez TEN, causant un retard diastolique du retour de l'onde au niveau central, phénomène précédemment bien décrit dans la littérature.