495 resultados para Débit expiratoire de pointe
Resumo:
Effet d'un bolus intraveineux de phénylephrine ou d'éphedríne sur le flux sanguin cutané lors d'une anesthésie rachidienne Introduction : La phénylephrine et l'éphedrine sont des substances vaso-actives utilisées de routine pour corriger des épisodes d'hypotension artérielle induits par l'anesthésie intrarachidienne. L'influence de ces deux vasopresseurs sur le flux sanguin cutané (FSC) dans ce contexte n'a jusqu'à maintenant pas été décrite. Cette étude évalue l'effet d'une injection intraveineuse de 75 µg de phénylephrine ou de 7.5 mg d'éphedrine sur le FSC mesuré par Laser Doppler, dans les zones concernées parle bloc sympathiqué induit par l'anesthésie intrarachidienne (membres inférieurs) et dans les zones non concernées (membres supérieurs). Méthode :Après acceptation par le Comité d'Éthique, et obtention de leur accord écrit, 20 patients devant subir une intervention chirurgicale élective en décubitus dorsal sous anesthésie. intrarachidienne ont été inclus dans cette étude randomisée en double insu. Le FSC a été mesuré en continu par deux sondes fixées l'une à la cuisse (zone avec bloc sympathique) et l'autre sur l'avantbras (zone sans bloc sympathique). Les valeurs de FSC ont été enregistrées après l'anesthésie rachidienne (valeur contrôle), puis après l'injection i.v. dè phénylephrine (10 patients) ou d'éphedrine (10 patients) pour corriger une hypotension définie comme une chute de 20 mmHg de la pression artérielle systolique. Les variations de FSC exprimées en pourcentage de la valeur contrôle moyenne (+/- écart type) ont été analysées par le test t de Student. Résultats :Les données démographiques des patients et le niveau sensitif induit par l'anesthésie rachidienne sont similaires dans les deux groupes. Aux doses utilisées, seule l'éphedrine restaure la pression artérielle aux valeurs précédant l'anesthésie rachidienne. La phénylephrine augmente le FSC de l'avant-bras de 44% (+/- 79%) et de la cuisse de 34% (+/-24%), alors que l'éphedrine diminue le débit sanguin cutané de l'avant-bras de 16% (+/- 15%) et de la cuisse de 22% (+/-11%). Conclusion : L'injection intraveineuse de phénylephrine et d'éphedrine ont des effets opposés sur le flux sanguin cutané, et cette réponse n'est pas modifiée par le bloc sympathique.. Cette différence peut s'expliquer par la distribution des sous-types de récepteurs adrénergiques alpha et leur prédominance relative dans les veines et les artères de différents diamètres perfusant le tissu sous-cutané et la peau. L'éphedrine, èn raison de sa meilleure efficacité pour traiter les épisodes d'hypotension artérielle après anesthésie intrarachidienne devrait être préféré à la phénylephrine, leurs effets opposés sur le flux sanguin cutané n'étant pas pertinents en pratique clinique. SUMMARY Background: Phenylephrine or ephedrine is routinely used to correct hypotensive episodes fallowing spinal anaesthesia (SA). The influence of these two vasopressors on skin blood flow (SBF) has not yet been described. We have therefore evaluated the effects of an i.v. bolus of 75 µg phenylephrine or 7.5 mg of ephedrine on SBF measured by laser Doppler flowmetry during sympathetic blockade induced by SA. Methods: With Ethical Committee approval and written consent, 20 patients scheduled for elective procedures in supine position under SA were enrolled in this double-blind randomized study. SBF was measured continuously by two probes fixed at the thigh (area with sympathic blockade) and forearm level (area without sympathic blockade) respectively. SBF values were recorded after SA (control values) and then after a bolus administration of phenylephriné (n=10) or ephedrine (n=10) when systolic blood pressure decreased by 20 mmHg. Changes were expressed as percentage of control SBF values and analysed by Student's paired t-test. Results: Patient characteristics and dermatomal sensory levels were similar in both groups. Phenylephrine increases mean SBF at the forearm level by 44% (79%) [mean (SD)j and at the thigh by 34% (24%). Ephedrine decreases SBF at the forearm level by 16% (15%) and at the thigh by 22% (il%). Ephedrine bolus restores arterial blood pressure to pre-anaesthesia values, whereas phenylephrine does not. Conclusion: Administratión of phenylephrine and ephedrine has opposite effects on skin blood flow and sympathetic blockade does not modify this response. These findings could be explained by the distribution of the alpha-adrenoréceptor subtypes and their relative predominance among veins and arteries of different size perfusing the subcutaneous tissue and the skin. Ephedrine, due to its better efficacy to correct hypotensive episodes following SA, should be preferred, to phenylephrine, their opposite effects on SBF being not relevant for clinical practice.
Resumo:
Verena Schaeffer, Jean Ruegg et Natacha Litzistorf Spina ont analysé les enjeux sociaux et processuels d'une douzaine de quartiers durables en Europe. Leur article s'appuie sur une recherche /1 faite dans le cadre du projet-modèle suisse "Des quartiers durables pour l'agglomération lausannoise". Il pointe la complexité de la mise en oeuvre du développement durable urbain à l'échelle de quartiers modèles, tout en soulignant leur intérêt comme démarche d'apprentissage pour des villes durables.
Resumo:
Rapport de synthèseApproche et objectifL'objectif de la recherche était de préciser les relations existant entre l'insuffisance rénale chronique, l'anémie et l'accident vasculaire cérébral parmi des patients hospitalisés au Centre Hospitalier Universitaire Vaudois (CHUV) pour un accident vasculaire cérébral (AVC). Les auteurs ont déterminé la prévalence de l'anémie et de l'insuffisance rénale chronique parmi ces patients et examiné s'ils sont des facteurs de risque indépendants de la mortalité suite à un AVC.L'insuffisance rénale chronique est associée à un risque élevé de développer un AVC. L'anémie est une complication et une conséquence fréquente qui découle de l'insuffisance rénale chronique et est également un facteur de risque pour les maladies cérébro- et cardiovasculaires.MéthodeLa présente étude de cohorte rétrospective se base sur le registre des AVC du CHUV et inclut tous les patients traités suite à un premier AVC au service de neurologie du CHUV entre les années 2000 et 2003.Les variables utilisées pour l'analyse sont les caractéristiques démographiques, l'insuffisance rénale chronique, le débit de filtration glomérulaire.(GFR), l'anémie et d'autres facteurs de risque d'AVC. Ils ont été récoltés au moyen du système informatique du laboratoire du CHUV, d'entretiens téléphoniques (patients ou proches) et du registre des AVC du CHUV.L'insuffisance rénale chronique a été calculée sur base de la ,,Kidney Disease Outcomes Quality Initiative (K/DOQI)-CKD Classification", laquelle est divisée en cinq stades. L'anémie a été définie par une hémoglobine de < 120g/L pour les femmes et < 130g/L pour les hommes.Les analyses statistiques réalisées sont des tests Chi-carré, des tests de Τ ainsi que des courbes de Kaplan-Meier et le modèle de régression de Cox.RésultatsParmi 890 patients adultes avec un AVC, le GFR moyen était de 64.3 ml/min/1.73 m2, 17% souffraient d'anémie et 10% sont décédés pendant la première année après la sortie de l'hôpital, suite à l'"AVC index". Parmi ceux-ci, 61% avaient une insuffisance rénale chronique de stade 3-5 et 39% de stade 1 ou 2 selon les critères de K/DOQI.D'autre part un taux d'hémoglobine élevé a pu être associé à un risque moins élevé de mortalité un an après la sortie de l'hôpital.Conclusion et perspectiveNous avons constaté que l'anémie ainsi que l'insuffisance rénale chronique sont fréquents parmi les patients souffrant d'un AVC et qu'ils sont des facteurs de risque d'un taux de mortalité élevé après un an. En conséquence, il pourrait être utile de traiter les patients souffrant d'anémie et d'insuffisance rénale dès que possible afin de diminuer les complications et comorbidités résultants de ces maladies.La perspective est de rendre les cliniciens attentif à l'importance de l'insuffisance rénale et de l'anémie parmi les patients ayants développé un AVC, ainsi que d'initier le traitement approprié afin de diminuer les complications, les comorbidités ainsi que les récidives d'un AVC. L'efficacité et l'économicité des interventions visant à améliorer le pronostic chez les patients présentant un AVC et souffrant d'une insuffisance rénale chronique et / ou d'une anémie doivent être évaluées par des études appropriées.
Resumo:
De la publicité au discours politique, les procédés d'argumentation sont variés. Un seul d'entre eux, aux multiples occurrences, occupe ce mémoire : l'emploi de la narration dans le discours publicitaire. Il s'agit plus précisément d'étudier les manières dont s'articulent l'argumentation et la narration dans le contexte publicitaire. Les exemples analysés se réfèrent à deux modalités narratives distinctes, les récits factuels et les récits fictionnels. Ils sont au nombre de quatre, relatifs à trois produits différents : une publicité pour la gamme Excellence de Lindt publiée en avril 2008 dans Femina ; un publi-reportage consacré au café Jinogalpa de Nespresso diffusé en février 2008 dans un magazine promotionnel ; un fascicule promotionnel consacré à Jinogalpa, distribué avec le même magazine ; un iconotexte publicitaire datant de février 1938 pour le Cognac Hennessy issu de L'Illustration. D'une part, l'analyse confirme les observations faites par les études rhétoriques: l'usage de la narration par l'argumentation publicitaire recouvre les catégories de l'exemplum (l'illustration ou l'analogie) et de la narratio (narration orientée favorisant une réception pertinente de l'argumentation). D'autre part, l'analyse pointe également des phénomènes nouveaux : l'emploi d'assertions présuppositionnelles par la reformulation des cadres spatio-temporels implicites du récit en pôles d'argumentation explicites, l'utilisation de fragments de récit et de scripts narratifs comme embrayeurs d'une interprétation orientée ou encore l'usage des genres narratifs comme brouilleurs du contrat de communication préétabli.
Resumo:
De nombreuses études cliniques ont révélé une corrélation étroite entre un régime alimentaire riche en sel et le développement d'une hypertrophie ventriculaire gauche. Cette association a été classiquement attribuée aux effets hypertensifs à long terme d'une alimentation riche en sel. Toutefois, les études épidémiologiques ont également démontré que l'hypertrophie ventriculaire gauche peut survenir indépendamment de changements de pression artérielle.¦L'ingestion de sel n'étant pas distribuée de manière homogène durant la journée mais ayant lieu principalement durant les repas, nous émettons l'hypothèse que chaque repas riche en sel induit une augmentation aiguë de la pression artérielle, des pressions de remplissage cardiaque, du volume d'éjection systolique et du débit cardiaque. L'augmentation résultante du travail cardiaque pourrait ainsi à la longue entraîner une hypertrophie cardiaque.¦Pour tester si un repas riche en sel conduit à des modifications hémodynamiques favorisant l'hypertrophie cardiaque, nous avons comparé chez la même personne jeune et en bonne santé la réponse hémodynamique à un repas modérément salé (45 mmol) à celle d'un repas riche en sel (165 mmol de sodium). Les repas ont été pris de manière randomisée à 7 jours d'intervalle. Divers paramètres hémodynamiques ont été mesurés en continu avant et jusqu'à 140 minutes après chaque repas. Nos résultats montrent que les augmentations post-prandiales du volume d'éjection systolique et du travail cardiaque ont été plus prononcées après un repas à haute teneur en sel par rapport à un repas modérément salé.¦Nous spéculons que des apports chroniques en sel induisent des charges hémodynamiques répétées. Etant donné que la concentration plasmatique de sodium, qui est augmentée après un repas salé, est également capable de stimuler la croissance des myocytes cardiaques, il est possible que la combinaison sur des mois ou des années de pics hypernatrémiques post-prandiaux et de charges cardiaques soit responsable de l'hypertrophie cardiaque souvent observée avec une alimentation riche en sel.¦-¦Many clinical studies have shown a close correlation between a chronic high salt diet and the development of left ventricular hypertrophy. This association has been classically attributed to the long-term hypertensive effects of a high salt diet. However, epidemiological studies have also shown that left ventricular hypertrophy may occur independently of changes in arterial pressure.¦Since salt ingestion during a high salt diet is not distributed evenly over a 24-hr period, but occurs essentially during meal periods, we speculate that each acute salt load could lead to greater acute increases in blood pressure, heart filling pressure, stroke volume and cardiac output, putting an additional work load on the heart, promoting in the long run cardiac hypertrophy.¦To test whether a high salt meal leads to hemodynamic changes that may favor cardiac hypertrophy, we compared in the same healthy young individual the response to a moderately salted meal (45 mmol) and to a high-salt meal (165 mmol sodium), given in a random order on separate days, on various cardiovascular parameters that were continuously monitored before and up to 140 minutes after the meal. Our results show that the post-prandial increases in stroke volume, and cardiac work were more pronounced after a high-salt meal than after a low-salt meal.¦We speculate that repetitive salt loads associated with a high salt diet may lead to repetitive hemodynamic loads. Since plasma sodium concentration, which is increased after a salty meal, is also capable to stimulate myocyte growth, it is possible that the combination of post-prandial hypernatremic peaks and of cardiac loads may be responsible, when repeated many times over period of months, of the cardiac hypertrophy often seen with a high salt diet.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
Pendant la grossesse, la pression artérielle reste stable malgré une nette augmentation du volume d'éjection systolique et du débit cardiaque. Cette stabilité vient d'un côté d'une vasodilatation périphérique entraînant une diminution des résistances périphériques et d'un autre côté d'une moindre rigidité des principales artères notamment l'aorte. En conséquence, l'amplitude des ondes de pouls est atténuée, de même que leur vitesse de propagation dans le sens tant antérogade que rétrograde (ondes réfléchies). Les ondes réfléchies tendent ainsi à atteindre l'aorte ascendante plus tard durant la systole, voire durant la diastole, ce qui peut contribuer à diminuer la pression puisée. La prééclampsie perturbe massivement ce processus d'adaptation. Il s'agit d'une maladie hypertensive de la grossesse engendrant une importante morbidité et mortalité néonatale et maternelle. Il est à remarquer que la diminution de la rigidité artérielle n'est pas observée chez les patientes atteintes avec pour conséquence une forte augmentation de la pression systolique centrale (aortique) par les ondes réfléchies. Ce fait a été établi grâce à l'existence de la tonométrie d'aplanation, une méthode permettant l'évaluation non invasive de l'onde de pouls centrale. Dans cette méthode, un senseur de pression piézo-électrique permet de capter l'onde de pouls périphérique, le plus souvent sur l'artère radiale. Par la suite, un algorithme validé permet d'en déduire la forme de l'onde de pouls centrale et de visualiser à quel moment du cycle cardiaque s'y ajoutent les ondes réfléchies. Plusieurs études font état d'une forte augmentation de la pression systolique centrale par les ondes réfléchies chez les patientes atteintes de prééclampsie, suggérant l'utilisation de cette méthode pour le diagnostic et le monitoring voire pour le dépistage de ces patientes. Pour atteindre ce but, il est nécessaire d'établir des normes en rapport notamment avec l'âge gestationnel. Dans la littérature, les données pertinentes actuellement disponibles sont variables, voire contradictoires. Par exemple, les ondes réfléchies proéminentes dans la partie diastolique de l'onde de pouls centrale disparaissaient chez des patientes enceintes au 3eme trimestre comparées à des contrôles non enceintes dans une étude lausannoise, alors que deux autres études présentent l'observation contraire. Autre exemple, certains auteurs décrivent une diminution progressive de l'augmentation systolique jusqu'à l'accouchement alors que d'autres rapportent un nadir aux environs du 6ème mois, suivi d'un retour à des valeurs plus élevées en fin de grossesse. Les mesures effectuées dans toutes ces études différaient dans leur exécution, les patientes étant notamment dans des postions corporelles différentes (couchées, semi-couchées, assises, en décubitus latéral). Or nous savons que le status hémodynamique est très sensible aux changements de position, particulièrement durant la grossesse où l'utérus gravide est susceptible d'avoir des interactions mécaniques avec les veines et possiblement les artères abdominales. Ces différences méthodologiques pourraient donc expliquer, au moins en partie, l'hétérogénéité des résultats concernant l'onde de pouls chez la femme enceinte, ce qui à notre connaissance n'a jamais été exploré. Nous avons mesuré l'onde de pouls dans les positions assise et couchée chez des femmes enceintes, au 3eme trimestre d'une grossesse non compliquée, et nous avons effectué une comparaison avec des données similaire obtenues chez des femmes non enceintes en bonne santé habituelle. Les résultats montrent que la position du corps a un impact majeur sur la forme de l'onde de pouls centrale. Comparée à la position assise, la position couchée se caractérise par une moindre augmentation systolique et, par contraste, une augmentation diastolique plus marquée. De manière inattendue, cet effet s'observe aussi bien en présence qu'en l'absence de grossesse, suggérant que la cause première n'en réside pas dans les interactions mécaniques de l'utérus gravide avec les vaisseaux sanguins abdominaux. Nos observations pourraient par contre être expliquées par l'influence de la position du corps, via un phénomène hydrostatique simple, sur la pression transmurale des artères éloignées du coeur, tout particulièrement celles des membres inférieurs et de l'étage abdominal. En position verticale, ces vaisseaux augmenteraient leur rigidité pour résister à la distension de leur paroi, ce qui y accroîtrait la vitesse de propagation des ondes de pression. En l'état, cette explication reste hypothétique. Mais quoi qu'il en soit, nos résultats expliquent certaines discordances entre les études conduites à ce jour pour caractériser l'influence de la grossesse physiologique sur la forme de l'onde de pouls central. De plus, ils indiquent que la position du corps doit être prise en compte lors de toute investigation utilisant la tonométrie d'applanation pour déterminer la rigidité des artères chez les jeunes femmes enceintes ou non. Il sera aussi nécessaire d'en tenir compte pour établir des normes en vue d'une utilisation de la tonométrie d'aplanation pour dépister ou suivre les patientes atteintes de prééclampsie. Il serait enfin intéressant d'évaluer si l'effet de la position sur la forme de l'onde de pouls central existe également dans l'autre sexe et chez des personnes plus âgées.
Resumo:
Malondialdehyde (MDA) is a small reactive molecule which occurs ubiqui¬tous among eukaryotes. Interest in this molecule stems from the fact that it can be highly reactive. In green tissues of plants it is apparently formed pre¬dominantly by reactive oxygen species (ROS)-mediated non-enzymatic oxi¬dation (nLPO) of triunsaturated fatty acids (TFAs). MDA which is formed by nLPO is widely used as a disease marker and is regarded to be a cel-lular toxin. Surprisingly, sites of ROS production like mitochondria and chloroplasts possess membranes which are enriched in nLPO-prone polyun¬saturated fatty acids (PUFAs). In this work we showed that chloroplasts are the major site of MDA production in leaves of adult Arabidopsis thaliana plants, whereas analyses in seedlings revealed accumulation in meristematic tissues like the root tip, lateral roots and the apical meristem region. Char-acterizing the MDA pools in more detail, we could show that MDA in plants was predominantly present in a free, non-reactive enolate form. This might explain why it is tolerated in sites where its protonated form could poten¬tially damage the genome and proteome. Analyzing the biological fate of MDA in leaves using labeled MDA-isotopes. we were able to show that MDA is metabolized and used to assemble lipids. The major end-point metabolite was identified as 18:3-16:3-monqgalactosyldiacylglycerol (MGDG), which is the most abundant lipid in chloroplasts. We hypothesize that PUFAs in sites of ROS production, like at PS II in chloroplasts, might act as buffers pre¬venting damage of proteins, thereby generating molecules such as MDA. The MDA produced in this way appears predominantly in a non-reactive enolate form in the cell until it fulfills a biological function or until it is metabo¬lized in order to assemble polyunsaturated MGDGs. Additionally, nLPO has been reported to increase in pathogenesis and we challenged seedlings and adult plants with necrotrophic fungi. Monitoring MDA during the in¬fections, we found MDA pools in seedlings were highly inducible although they were tightly controlled in the leaves of adult plants. - Malondialdehyde (MDA) est une petite molecule réactive présente de manière ubiquitaire dans les eucaryotes. L'intérêt de cette molécule vient du fait que celle-ci pourrait être très réactive. Dans les tissus verts des plantes, la majorité du MDA est apparement formée par l'oxydation non-enzymatique (nLPO) des acides gras polyinsaturés (PUFAs) transmis par des espèces ac¬tives d'oxygène (ROS). Le MDA formé par nLPO est souvent utilisé comme marqueur de maladies et il est considéré comme une toxine cellulaire. Etonnament, les sites de production comme les mitochondries et les chloro- plastes sont riches en PUFAs qui sont sensibles à la nLPO. Dans cette thèse nous montrons que les chloroplastes répresentent le site de production de MDA dans les feuilles adultes d'Arabidopsis thaliana. Les analyses de MDA dans les plantules ont révélé que le MDA s'accumule dans les tissus meris- tematiques comme celles de la pointe de la racine, des racines latéralles et du meristème apical. Par la caractérisation du MDA présent nous avons pu montrer que la majorité du MDA était présent sous la forme d'un énolate non-réactif. Ceci pourrait expliquer pourquoi le MDA est toléré dans les sites où il pourrait casser le genome ou le protéome s'il est présent sous sa forme protonée. Les analyses du devenir du MDA dans les feuilles par des isotopes du MDA ont montré que celui-ci est metabolisé et utilisé pour assembler des lipides. Le lipide majoritairement métabolisé a été identifié comme étant le 18:3-16:3-monogalactosyldiacylglycerole (MGDG); le lipide le plus abondant dans les chloroplastes. Nous supposons que la présence des PUFAs dans les sites de production du ROS, tout comme le PS II dans les chloroplastes, pourrait jouer un rôle de tampon pour prevenir les protéines de différentes dégradations et ainsi générer des molécules telle que le MDA. La majorité du MDA produit par cette réaction est présente dans la cellule sous la forme d'énolate non-réactif, jusqu'au moment de son utilisation ou lorsqu'il serra metabolisé pour produire des MGDGs polyinsaturés. De plus, il a été décrit que nLPO pourait augmenter dans la pathogenèse, et nous avons testé des plantes adultes et des plantules en présence de champignons nécrotrophiques. L'observation du MDA pendant les infections a montré que les concentrations en MDA sont fortement induites dans les plantules mais contrôlées dans les plantes adultes.
Resumo:
The long QT syndrome may be acquired or genetically determined. The syndrome is characterized by a prolonged QT interval and is associated with an increased risk of cardiac arrhythmia such as a torsade de pointe and death. Electrolytes disorders such as hypomagnesemia and hypokaliemia and several drugs may increase the risk to develop a long QT syndrome. The epidemiology, the aetiology, the diagnostic approach as well as the management options of an acquired QT prolongation is discussed and reviewed herein.
Resumo:
Messages à retenir: Les signes scanographiques d'atteinte des voies aériennes proximales chez les patients BPCO sont l'épaississement pariétal bronchique , les dilatationsbronchiques, les diverticules bronchiques, la trachée en fourreau de sabre et la trachéobronchomalacie.Les signes scanographiques d'atteinte des petites voies aériennes sont soit de type inflammatoire (micronodules centrolobulaires et/ou verre dépoli), soit dessignes indirects d'obstruction bronchiolaire (perfusion en mosaïque et piégeage expiratoire).L'analyse visuelle des examens scanographiques des patients BPCO permet de différencier ceux ayant un emphysème prédominant de ceux ayant une maladiedes voies aériennes prédominante.Des bronchectasies variqueuses et kystiques, associées à de l'emphysème panlobulaire, doivent faire rechercher un déficit en alpha-1-antitrypsine. Résumé: La BPCO est une maladie inflammatoire lentement progressive obstruant les voies aériennes, qui à terme entraîne une destruction du parenchyme pulmonaire(emphysème) et une réduction irréversible du calibre des petites voies aériennes . Les deux phénomènes, emphysème et bronchiolite obstructive, sontresponsables d'un syndrome obstructif fonctionnel. L'usage de la scanographie pour l'évaluation des patients BPCO a permis de mettre en évidence desdifférences morphologiques importantes pour un même degré d'insuffisance respiratoire obstructive (emphysème prédominant ou atteinte des voies aériennesprédominante). Chez les patients BPCO, l'épaississement pariétal bronchique est le reflet indirect d'un remodelage obstructif des petites voies aériennes . L'épaississement pariétal bronchique et l'étendue de l'emphysème sont tous deux corrélés au degré d'obstruction fonctionnelle. Ces différences morphologiquessous-tendent des différences dans les mécanismes physiopathologiques sous-jacents et dans les profils génomiques des patients. La mise en évidence parscanographie de ces différences morphologiques (phénotypes) permet une meilleure stratification des patients à inclure dans les essais cliniques , et à terme,permettra une prise en charge thérapeutique plus personnalisée.
Resumo:
La région-capitale comme principal relais européen vers et depuis l'extérieur Paris est dans le trio de tête des villes globales dans les réseaux mondiaux des entreprises, après Londres et New York, davantage grâce au rayonnement de ses entreprises que par son attractivité aux entreprises étrangères. Sa spécificité tient à son rôle particulier de coordination entre des villes européennes. Très bien placée pour relayer les entrées continentales vers d'autres pays européens, elle occupe un rôle de relais dominant pour la sortie des investissements européens dans le monde en particulier vers le Japon. Par ailleurs, elle est la première ville mondiale en relation avec les villes africaines. Une faiblesse relative de son attractivité La région-capitale ne représente pas la destination première des investissements contrôlés depuis les villes qu'elle investit, notamment en Europe, à l'exception de Bruxelles et Francfort. Elle ne représente la première destination des investissements que pour les deux tiers des villes françaises, et hors d'Europe, elle n'est privilégiée que par les villes africaines. Par ailleurs, elle montre une relative faiblesse dans les activités les plus qualifiées. Vers une métropole francilienne plus high-tech collaborant davantage avec les entreprises étrangères Des mesures incitant les entreprises françaises à davantage s'internationaliser, coopérer avec les entreprises étrangères en créant des joint-ventures à l'exemple de Raytheon et Thalès renforcerait l'attractivité de la métropole francilienne. De même, une meilleure identité du Grand Paris avec la création d'espaces dédiés à l'accueil de secteurs de pointe high tech manquant actuellement de lisibilité et soutenus par de grandes entreprises françaises performantes contribueraient à renforcer son attractivité.
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
Introductionþ: L'insulinothérapie intraveineuse est la mieux adaptée pour obtenirun contrôle glycémique rapidement efficace ou lors de besoins en insulinechangeants de façon peu prévisible, mais son emploi hors des soins intensifs seheurte souvent aux manque de formation et réticences des soignants. L'inclusionL'inclusiondu contrôle glycémique rapide dans nos standards institutionnels de priseen charge de l'AVC aigu a suscité une demande de protocole thérapeutiqueadapté aux besoins de l'Unité cérébrovasculaire.Patients et méthodesþ: Le protocole d'insulinothérapie a été dérivé d'algorithmespubliés intégrant glycémie actuelle, cinétique glycémique et sensibilité àl'insuline du patient. Aux repas, une augmentation du débit d'insuline iv. pendant1 h a été ajoutée. Les objectifs glycémiques étaient 4-6þmmol/l en préprandialetþ< 8þmmol/l en postprandial. L'implémentation s'est faite à travers unprocessus de co-construction (outils de gestion, documents et activités de formation)avec les responsables médico-infirmiers du service.Résultatsþ: Les données des 90 premiers patients ont été analysées (diabète connuþ:38, hyperglycémie nouvelleþ: 52, 2715h de traitement cumulées). Les duréesd'insulinothérapie iv. étaient de 34,5 h [interquartile 24-39] et 26,5 h [21-36,3] respectivement(pþ=þ0,03), les délais d'atteinte de l'objectif de 5 h [4.0-8.25] et 7 h[4.0-9.75] (pþ=þns.). Pendant les 24 h suivantes, les taux de glycémies dans la cibleétaient de 70,4þ%/81,3þ% (90,3þ%/94,6þ% entre 4-8þmmol/l), avec un faible tauxd'hypoglycémies (3,9þ%/3,1þ%þ< 4,0þmmol/l, 0,4þ%/0,2þ%þ<þ3,3þmmol/l) et un contrôleglycémique postprandial comparable (excursions +2,6þmmol/l [0,7-3,9] et+1,7þmmol/l [0,6-3,7]þ; Nþ=þ75þ; pþ=þns.).Conclusionþ: L'insulinothérapie intraveineuse hors des soins intensifs est faisable,hautement sûre et efficace, même avec des objectifs glycémiques particulièrementstricts. Outre la fiabilité perçue de l'outil de gestion, la démarche departenariat adoptée avec les soignants, permettant la prise en compte de leurspréoccupations à chaque étape du processus, a été un facteur de succès importantpour son implémentation.
Resumo:
Les pertes de substances étendues de la paroi thoracique postérieure sont régulièrement rencontrées en chirurgie reconstructive. Les causes les plus habituelles sont les escarres, l'extirpation de lésions néoplasiques et les déhiscences de plaie dans le cadre d'une chirurgie du rachis. L'exposition fréquente des côtes ou des vertèbres rend nécessaire l'emploi d'un lambeau afin de s'assurer de la pérennité de la couverture. Le lambeau musculo-cutané du trapèze est classiquement indiqué dans les plaies du rachis cervical et dorsal haut alors que le lambeau musculo-cutané du grand dorsal l'est dans les pertes de substances dorsales basses. Lorsque la taille du lambeau prélevé rend impossible la fermeture directe du site donneur, ce dernier doit être recouvert soit par une greffe de peau, soit par un autre lambeau, ce qui majore la morbidité dans les deux cas. En 2001, Micali a proposé un nouveau tracé de la palette cutanée du lambeau du grand dorsal en utilisant l'artifice du V-Y, permettant par conséquent la fermeture directe du site de prélèvement. Cette modification s'intéressait uniquement à la paroi thoracique antérieure. Nous avons étudié la faisabilité de cette technique appliquée au thorax postérieur. Trois patients ont bénéficié de la couverture d'une perte de substance thoracique postérieure par un lambeau musculo-cutané du grand dorsal en V-Y. Il s'agissait de 2 cas de déhiscence de plaie après chirurgie de stabilisation rachidienne et d'un cas d'exérèse d'un sarcome. La palette cutanée est orientée obliquement depuis la berge externe de la plaie, son bord médial étant cranial alors que son bord latéral est caudal et forme une pointe. Le muscle grand dorsal est levé selon la technique habituelle en conservant la palette cutanée attachée afin de préserver les vaisseaux perforants nourriciers. Le lambeau est avancé postérieurement afin d'oblitérer le défect sans tension. Le site donneur est ensuite suturé en première intention. Les trois lambeaux ont intégralement survécu et ont permis une couverture cutanéo- musculaire durable sans la survenue de complications. La modification de la technique de Micali que nous proposons permet d'obtenir de façon reproductible une couverture stable de pertes de substances étendues intéressant la paroi thoracique postérieure. Contrairement au dessin habituel de la palette cutanée, l'artifice du V-Y rend obsolète l'utilisation de greffes de peau puisque le site donneur peut être suturé sans tension. La chirurgie étant courte et la morbidité faible, cette technique peut également être appliquée aux patients fragiles pour lesquels une intervention longue de type lambeau libre est contre-indiquée.
Resumo:
The interaction of tunneling with groundwater is a problem both from an environmental and an engineering point of view. In fact, tunnel drilling may cause a drawdown of piezometric levels and water inflows into tunnels that may cause problems during excavation of the tunnel. While the influence of tunneling on the regional groundwater systems may be adequately predicted in porous media using analytical solutions, such an approach is difficult to apply in fractured rocks. Numerical solutions are preferable and various conceptual approaches have been proposed to describe and model groundwater flow through fractured rock masses, ranging from equivalent continuum models to discrete fracture network simulation models. However, their application needs many preliminary investigations on the behavior of the groundwater system based on hydrochemical and structural data. To study large scale flow systems in fractured rocks of mountainous terrains, a comprehensive study was conducted in southern Switzerland, using as case studies two infrastructures actually under construction: (i) the Monte Ceneri base railway tunnel (Ticino), and the (ii) San Fedele highway tunnel (Roveredo, Graubiinden). The chosen approach in this study combines the temporal and spatial variation of geochemical and geophysical measurements. About 60 localities from both surface and underlying tunnels were temporarily and spatially monitored during more than one year. At first, the project was focused on the collection of hydrochemical and structural data. A number of springs, selected in the area surrounding the infrastructures, were monitored for discharge, electric conductivity, pH, and temperature. Water samples (springs, tunnel inflows and rains) were taken for isotopic analysis; in particular the stable isotope composition (δ2Η, δ180 values) can reflect the origin of the water, because of spatial (recharge altitude, topography, etc.) and temporal (seasonal) effects on precipitation which in turn strongly influence the isotopic composition of groundwater. Tunnel inflows in the accessible parts of the tunnels were also sampled and, if possible, monitored with time. Noble-gas concentrations and their isotope ratios were used in selected locations to better understand the origin and the circulation of the groundwater. In addition, electrical resistivity and VLF-type electromagnetic surveys were performed to identify water bearing fractures and/or weathered areas that could be intersected at depth during tunnel construction. The main goal of this work was to demonstrate that these hydrogeological data and geophysical methods, combined with structural and hydrogeological information, can be successfully used in order to develop hydrogeological conceptual models of the groundwater flow in regions to be exploited for tunnels. The main results of the project are: (i) to have successfully tested the application of electrical resistivity and VLF-electromagnetic surveys to asses water-bearing zones during tunnel drilling; (ii) to have verified the usefulness of noble gas, major ion and stable isotope compositions as proxies for the detection of faults and to understand the origin of the groundwater and its flow regimes (direct rain water infiltration or groundwater of long residence time); and (iii) to have convincingly tested the combined application of a geochemical and geophysical approach to assess and predict the vulnerability of springs to tunnel drilling. - L'interférence entre eaux souterraines et des tunnels pose des problèmes environnementaux et de génie civile. En fait, la construction d'un tunnel peut faire abaisser le niveau des nappes piézométriques et faire infiltrer de l'eau dans le tunnel et ainsi créer des problème pendant l'excavation. Alors que l'influence de la construction d'un tunnel sur la circulation régionale de l'eau souterraine dans des milieux poreux peut être prédite relativement facilement par des solution analytiques de modèles, ceci devient difficile dans des milieux fissurés. Dans ce cas-là, des solutions numériques sont préférables et plusieurs approches conceptuelles ont été proposées pour décrire et modéliser la circulation d'eau souterraine à travers les roches fissurées, en allant de modèles d'équivalence continue à des modèles de simulation de réseaux de fissures discrètes. Par contre, leur application demande des investigations importantes concernant le comportement du système d'eau souterraine basées sur des données hydrochimiques et structurales. Dans le but d'étudier des grands systèmes de circulation d'eau souterraine dans une région de montagnes, une étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction: (i) Le tunnel ferroviaire de base du Monte Ceneri (Tessin) et (ii) le tunnel routière de San Fedele (Roveredo, Grisons). L'approche choisie dans cette étude est la combinaison de variations temporelles et spatiales des mesures géochimiques et géophysiques. Environs 60 localités situées à la surface ainsi que dans les tunnels soujacents ont été suiviès du point de vue temporel et spatial pendant plus de un an. Dans un premier temps le projet se focalisait sur la collecte de données hydrochimiques et structurales. Un certain nombre de sources, sélectionnées dans les environs des infrastructures étudiées ont été suivies pour le débit, la conductivité électrique, le pH et la température. De l'eau (sources, infiltration d'eau de tunnel et pluie) a été échantillonnés pour des analyses isotopiques; ce sont surtout les isotopes stables (δ2Η, δ180) qui peuvent indiquer l'origine d'une eaux, à cause de la dépendance d'effets spatiaux (altitude de recharge, topographie etc.) ainsi que temporels (saisonaux) sur les précipitations météoriques , qui de suite influencent ainsi la composition isotopique de l'eau souterraine. Les infiltrations d'eau dans les tunnels dans les parties accessibles ont également été échantillonnées et si possible suivies au cours du temps. La concentration de gaz nobles et leurs rapports isotopiques ont également été utilisées pour quelques localités pour mieux comprendre l'origine et la circulation de l'eau souterraine. En plus, des campagnes de mesures de la résistivité électrique et électromagnétique de type VLF ont été menées afin d'identifier des zone de fractures ou d'altération qui pourraient interférer avec les tunnels en profondeur pendant la construction. Le but principal de cette étude était de démontrer que ces données hydrogéologiques et géophysiques peuvent être utilisées avec succès pour développer des modèles hydrogéologiques conceptionels de tunnels. Les résultats principaux de ce travail sont : i) d'avoir testé avec succès l'application de méthodes de la tomographie électrique et des campagnes de mesures électromagnétiques de type VLF afin de trouver des zones riches en eau pendant l'excavation d'un tunnel ; ii) d'avoir prouvé l'utilité des gaz nobles, des analyses ioniques et d'isotopes stables pour déterminer l'origine de l'eau infiltrée (de la pluie par le haut ou ascendant de l'eau remontant des profondeurs) et leur flux et pour déterminer la position de failles ; et iii) d'avoir testé d'une manière convainquant l'application combinée de méthodes géochimiques et géophysiques pour juger et prédire la vulnérabilité de sources lors de la construction de tunnels. - L'interazione dei tunnel con il circuito idrico sotterraneo costituisce un problema sia dal punto di vista ambientale che ingegneristico. Lo scavo di un tunnel puô infatti causare abbassamenti dei livelli piezometrici, inoltre le venute d'acqua in galleria sono un notevole problema sia in fase costruttiva che di esercizio. Nel caso di acquiferi in materiale sciolto, l'influenza dello scavo di un tunnel sul circuito idrico sotterraneo, in genere, puô essere adeguatamente predetta attraverso l'applicazione di soluzioni analitiche; al contrario un approccio di questo tipo appare inadeguato nel caso di scavo in roccia. Per gli ammassi rocciosi fratturati sono piuttosto preferibili soluzioni numeriche e, a tal proposito, sono stati proposti diversi approcci concettuali; nella fattispecie l'ammasso roccioso puô essere modellato come un mezzo discreto ο continuo équivalente. Tuttavia, una corretta applicazione di qualsiasi modello numerico richiede necessariamente indagini preliminari sul comportamento del sistema idrico sotterraneo basate su dati idrogeochimici e geologico strutturali. Per approfondire il tema dell'idrogeologia in ammassi rocciosi fratturati tipici di ambienti montani, è stato condotto uno studio multidisciplinare nel sud della Svizzera sfruttando come casi studio due infrastrutture attualmente in costruzione: (i) il tunnel di base del Monte Ceneri (canton Ticino) e (ii) il tunnel autostradale di San Fedele (Roveredo, canton Grigioni). L'approccio di studio scelto ha cercato di integrare misure idrogeochimiche sulla qualité e quantité delle acque e indagini geofisiche. Nella fattispecie sono state campionate le acque in circa 60 punti spazialmente distribuiti sia in superficie che in sotterraneo; laddove possibile il monitoraggio si è temporalmente prolungato per più di un anno. In una prima fase, il progetto di ricerca si è concentrato sull'acquisizione dati. Diverse sorgenti, selezionate nelle aree di possibile influenza attorno allé infrastrutture esaminate, sono state monitorate per quel che concerne i parametri fisico-chimici: portata, conduttività elettrica, pH e temperatura. Campioni d'acqua sono stati prelevati mensilmente su sorgenti, venute d'acqua e precipitazioni, per analisi isotopiche; nella fattispecie, la composizione in isotopi stabili (δ2Η, δ180) tende a riflettere l'origine delle acque, in quanto, variazioni sia spaziali (altitudine di ricarica, topografia, etc.) che temporali (variazioni stagionali) della composizione isotopica delle precipitazioni influenzano anche le acque sotterranee. Laddove possibile, sono state campionate le venute d'acqua in galleria sia puntualmente che al variare del tempo. Le concentrazioni dei gas nobili disciolti nell'acqua e i loro rapporti isotopici sono stati altresi utilizzati in alcuni casi specifici per meglio spiegare l'origine delle acque e le tipologie di circuiti idrici sotterranei. Inoltre, diverse indagini geofisiche di resistività elettrica ed elettromagnetiche a bassissima frequenza (VLF) sono state condotte al fine di individuare le acque sotterranee circolanti attraverso fratture dell'ammasso roccioso. Principale obiettivo di questo lavoro è stato dimostrare come misure idrogeochimiche ed indagini geofisiche possano essere integrate alio scopo di sviluppare opportuni modelli idrogeologici concettuali utili per lo scavo di opere sotterranee. I principali risultati ottenuti al termine di questa ricerca sono stati: (i) aver testato con successo indagini geofisiche (ERT e VLF-EM) per l'individuazione di acque sotterranee circolanti attraverso fratture dell'ammasso roccioso e che possano essere causa di venute d'acqua in galleria durante lo scavo di tunnel; (ii) aver provato l'utilità di analisi su gas nobili, ioni maggiori e isotopi stabili per l'individuazione di faglie e per comprendere l'origine delle acque sotterranee (acque di recente infiltrazione ο provenienti da circolazioni profonde); (iii) aver testato in maniera convincente l'integrazione delle indagini geofisiche e di misure geochimiche per la valutazione della vulnérabilité delle sorgenti durante lo scavo di nuovi tunnel. - "La NLFA (Nouvelle Ligne Ferroviaire à travers les Alpes) axe du Saint-Gothard est le plus important projet de construction de Suisse. En bâtissant la nouvelle ligne du Saint-Gothard, la Suisse réalise un des plus grands projets de protection de l'environnement d'Europe". Cette phrase, qu'on lit comme présentation du projet Alptransit est particulièrement éloquente pour expliquer l'utilité des nouvelles lignes ferroviaires transeuropéens pour le développement durable. Toutefois, comme toutes grandes infrastructures, la construction de nouveaux tunnels ont des impacts inévitables sur l'environnement. En particulier, le possible drainage des eaux souterraines réalisées par le tunnel peut provoquer un abaissement du niveau des nappes piézométriques. De plus, l'écoulement de l'eau à l'intérieur du tunnel, conduit souvent à des problèmes d'ingénierie. Par exemple, d'importantes infiltrations d'eau dans le tunnel peuvent compliquer les phases d'excavation, provoquant un retard dans l'avancement et dans le pire des cas, peuvent mettre en danger la sécurité des travailleurs. Enfin, l'infiltration d'eau peut être un gros problème pendant le fonctionnement du tunnel. Du point de vue de la science, avoir accès à des infrastructures souterraines représente une occasion unique d'obtenir des informations géologiques en profondeur et pour échantillonner des eaux autrement inaccessibles. Dans ce travail, nous avons utilisé une approche pluridisciplinaire qui intègre des mesures d'étude hydrogéochimiques effectués sur les eaux de surface et des investigations géophysiques indirects, tels que la tomographic de résistivité électrique (TRE) et les mesures électromagnétiques de type VLF. L'étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction, qui sont le tunnel ferroviaire de base du Monte Ceneri, une partie du susmentionné projet Alptransit, situé entièrement dans le canton Tessin, et le tunnel routière de San Fedele, situé a Roveredo dans le canton des Grisons. Le principal objectif était de montrer comment il était possible d'intégrer les deux approches, géophysiques et géochimiques, afin de répondre à la question de ce que pourraient être les effets possibles dû au drainage causés par les travaux souterrains. L'accès aux galeries ci-dessus a permis une validation adéquate des enquêtes menées confirmant, dans chaque cas, les hypothèses proposées. A cette fin, nous avons fait environ 50 profils géophysiques (28 imageries électrique bidimensionnels et 23 électromagnétiques) dans les zones de possible influence par le tunnel, dans le but d'identifier les fractures et les discontinuités dans lesquelles l'eau souterraine peut circuler. De plus, des eaux ont été échantillonnés dans 60 localités situées la surface ainsi que dans les tunnels subjacents, le suivi mensuelle a duré plus d'un an. Nous avons mesurés tous les principaux paramètres physiques et chimiques: débit, conductivité électrique, pH et température. De plus, des échantillons d'eaux ont été prélevés pour l'analyse mensuelle des isotopes stables de l'hydrogène et de l'oxygène (δ2Η, δ180). Avec ces analyses, ainsi que par la mesure des concentrations des gaz rares dissous dans les eaux et de leurs rapports isotopiques que nous avons effectués dans certains cas spécifiques, il était possible d'expliquer l'origine des différents eaux souterraines, les divers modes de recharge des nappes souterraines, la présence de possible phénomènes de mélange et, en général, de mieux expliquer les circulations d'eaux dans le sous-sol. Le travail, même en constituant qu'une réponse partielle à une question très complexe, a permis d'atteindre certains importants objectifs. D'abord, nous avons testé avec succès l'applicabilité des méthodes géophysiques indirectes (TRE et électromagnétiques de type VLF) pour prédire la présence d'eaux souterraines dans le sous-sol des massifs rocheux. De plus, nous avons démontré l'utilité de l'analyse des gaz rares, des isotopes stables et de l'analyses des ions majeurs pour la détection de failles et pour comprendre l'origine des eaux souterraines (eau de pluie par le haut ou eau remontant des profondeurs). En conclusion, avec cette recherche, on a montré que l'intégration des ces informations (géophysiques et géochimiques) permet le développement de modèles conceptuels appropriés, qui permettant d'expliquer comment l'eau souterraine circule. Ces modèles permettent de prévoir les infiltrations d'eau dans les tunnels et de prédire la vulnérabilité de sources et des autres ressources en eau lors de construction de tunnels.