37 resultados para corrections atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Knowledge of T(1) relaxation times can be important for accurate relative and absolute quantification of brain metabolites, for sensitivity optimizations, for characterizing molecular dynamics, and for studying changes induced by various pathological conditions. (1)H T(1) relaxation times of a series of brain metabolites, including J-coupled ones, were determined using a progressive saturation (PS) technique that was validated with an adiabatic inversion-recovery (IR) method. The (1)H T(1) relaxation times of 16 functional groups of the neurochemical profile were measured at 14.1T and 9.4T. Overall, the T(1) relaxation times found at 14.1T were, within the experimental error, identical to those at 9.4T. The T(1)s of some coupled spin resonances of the neurochemical profile were measured for the first time (e.g., those of gamma-aminobutyrate [GABA], aspartate [Asp], alanine [Ala], phosphoethanolamine [PE], glutathione [GSH], N-acetylaspartylglutamate [NAAG], and glutamine [Gln]). Our results suggest that T(1) does not increase substantially beyond 9.4T. Furthermore, the similarity of T(1) among the metabolites (approximately 1.5 s) suggests that T(1) relaxation time corrections for metabolite quantification are likely to be similar when using rapid pulsing conditions. We therefore conclude that the putative T(1) increase of metabolites has a minimal impact on sensitivity when increasing B(0) beyond 9.4T.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: Évaluer la concordance entre l'évolution de la perception des patients diabétiques type 2 et l'évolution de mesures quantifiables, dans le contexte d'un programme d'activité physique adapté. Ce programme se base sur l'accompagnement interdisciplinaire dans un concept éducatif et motivationnel (36 séances d'activité physique et 6-8 h d'atelier). Matériels et méthodes: Évaluation de la perception des patients portant sur : activité physique, condition physique, contrôle métabolique, gestion des corrections hypo/hyperglycémie, autonomisation et bien-être. Nous avons utilisé une cible d'auto-évaluation, composée d'échelles de Likert de 1 à 10 (1 = mauvais 10 = excellent). Concernant la condition physique nous avons mesuré : endurance, vitesse de marche, force, équilibre et souplesse. En fin de programme un questionnaire de satisfaction comprenant 5 items a été distribué. Résultats: Analyse des données de 40 patients, âge 59 ± 10 ans, 60 % femmes. Avant programme, 60 % des patients s'estiment insuffisants (moyenne < 5/10) face à la pratique de l'activité, la condition physique et le contrôle métabolique. Le bien-être se situe en moyenne à 5,4/10. Après programme, 75 % des patients montrent une progression dans tous les domaines (moyenne 7,4/10). Une corrélation positive apparaît entre l'amélioration de la condition physique et le bienêtre. Tous les paramètres physiques mesurés se sont aussi améliorés. L'amélioration de la condition physique perçue est corrélée avec celle de la force (p = 0,006). Le travail interdisciplinaire réalisé a été perçu positivement par 87,9 % des patients. La communication était de bonne qualité pour 78,1 % ainsi que le climat d'apprentissage (82,4 %). La majorité des patients (64,7 %) est très satisfaite du programme. Conclusion: Ce programme est prometteur, il montre l'amélioration de la perception et de la condition physique avec une concordance entre les deux. Cette amélioration laisse imaginer que les plus confiants sur leur capacité à agir puissent s'impliquer d'avantage dans la gestion quotidienne et dans la poursuite d'un projet d'activité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : During the evolutionary diversification of organisms, similar ecological constraints led to the recurrent appearances of the same traits (phenotypes) in distant lineages, a phenomenon called convergence. In most cases, the genetic origins of the convergent traits remain unknown, but recent studies traced the convergent phenotypes to recurrent alterations of the same gene or, in a few cases, to identical genetic changes. However, these cases remain anecdotal and there is a need for a study system that evolved several times independently and whose genetic determinism is well resolved and straightforward, such as C4 photosynthesis. This adaptation to warm environments, possibly driven by past atmospheric CO2 decreases, consists in a CO2-concentrating pump, created by numerous morphological and biochemical novelties. All genes encoding C4 enzymes already existed in C3 ancestors, and are supposed to have been recruited through gene duplication followed by neo-functionalization, to acquire the cell specific expression pattern and altered kinetic properties that characterize Ca-specific enzymes. These predictions have so far been tested only in species-poor and ecologically marginal C4 dicots. The monocots, and especially the grass family (Poaceae), the most important C4 family in terms of species number, ecological dominance and economical importance, have been largely under-considered as suitable study systems. This thesis aimed at understanding the evolution of the C4 trait in grasses at a molecular level and to use the genetics of C4 photosynthesis to infer the evolutionary history of the C4 phenotype and its driving selective pressures. A molecular phylogeny of grasses and affiliated monocots identified 17 to 18 independent acquisitions of the C4 pathway in the grass family. A relaxed molecular clock was used to date these events and the first C4 evolution was estimated in the Chloridoideae subfamily, between 32-25 million years ago, at a period when atmospheric CO2 abruptly declined. Likelihood models showed that after the COZ decline the probability of evolving the C4 pathway strongly increased, confirming low CO2 as a likely driver of C4 photosynthesis evolution. In order to depict the genetic changes linked to the numerous C4 origins, genes encoding phopshoenolpyruvate carboxylase (PEPC), the key-enzyme responsible for the initial fixation of atmospheric CO2 in the C4 pathway, were isolated from a large sample of C3 and C4 grasses. Phylogenetic analyses were used to reconstruct the evolutionary history of the PEPC multigene family and showed that the evolution of C4-specific PEPC had been driven by positive selection on 21 codons simultaneously in up to eight C4 lineages. These selective pressures led to numerous convergent genetic changes in many different C4 clades, highlighting the repeatability of some evolutionary processes, even at the molecular level. PEPC C4-adaptive changes were traced and used to show multiple appearances of the C, pathway in clades where species tree inferences were unable to differentiate multiple C4 appearances and a single appearance followed by C4 to C3 reversion. Further investigations of genes involved in some of the C4 subtypes only (genes encoding decarboxylating enzymes NADP-malic enzyme and phosphoenolpyruvate carboxykinase) showed that these C4-enzymes also evolved through strong positive selection and underwent parallel genetic changes during the different Ca origins. The adaptive changes on these subtype-specific C4 genes were used to retrace the history of the C4-subtypes phenotypes, which revealed that the evolution of C4-PEPC and C4-decarboxylating enzymes was in several cases disconnected, emphasizing the multiplicity of the C4 trait and the gradual acquisition of the features that create the CO2-pump. Finally, phylogenetic analyses of a gene encoding the Rubisco (the enzyme responsible for the fixation of CO2 into organic compounds in all photosynthetic organisms) showed that C4 evolution switched the selective pressures on this gene. Five codons were recurrently mutated to adapt the enzyme kinetics to the high CO2 concentrations of C4 photosynthetic cells. This knowledge could be used to introgress C4-like Rubisco in C3 crops, which could lead to an increased yield under predicted future high CO2 atmosphere. Globally, the phylogenetic framework adopted during this thesis demonstrated the widespread occurrence of genetic convergence on C4-related enzymes. The genetic traces of C4 photosynthesis evolution allowed reconstructing events that happened during the last 30 million years and proved the usefulness of studying genes directly responsible for phenotype variations when inferring evolutionary history of a given trait. Résumé Durant la diversification évolutive des organismes, des pressions écologiques similaires ont amené à l'apparition récurrente de certains traits (phénotypes) dans des lignées distantes, un phénomène appelé évolution convergente. Dans la plupart des cas, l'origine génétique des traits convergents reste inconnue mais des études récentes ont montré qu'ils étaient dus dans certains cas à des changements répétés du même gène ou, dans de rares cas, à des changements génétiques identiques. Malgré tout, ces cas restent anecdotiques et il y a un réel besoin d'un système d'étude qui ait évolué indépendamment de nombreuses fois et dont le déterminisme génétique soit clairement identifié. La photosynthèse dite en Ça répond à ces critères. Cette adaptation aux environnements chauds, dont l'évolution a pu être encouragé par des baisses passées de la concentration atmosphérique en CO2, est constituée de nombreuses nouveautés morphologiques et biochimiques qui créent une pompe à CO2. La totalité des gènes codant les enzymes Ç4 étaient déjà présents dans les ancêtres C3. Leur recrutement pour la photosynthèse Ç4 est supposé s'être fait par le biais de duplications géniques suivies par une néo-fonctionnalisation pour leur conférer l'expression cellule-spécifique et les propriétés cinétiques qui caractérisent les enzymes C4. Ces prédictions n'ont jusqu'à présent été testées que dans des familles C4 contenant peu d'espèces et ayant un rôle écologique marginal. Les graminées (Poaceae), qui sont la famille C4 la plus importante, tant en termes de nombre d'espèces que de dominance écologique et d'importance économique, ont toujours été considérés comme un système d'étude peu adapté et ont fait le sujet de peu d'investigations évolutives. Le but de cette thèse était de comprendre l'évolution de la photosynthèse en C4 chez les graminées au niveau génétique et d'utiliser les gènes pour inférer l'évolution du phénotype C4 ainsi que les pressions de sélection responsables de son évolution. Une phylogénie moléculaire de la famille des graminées et des monocotylédones apparentés a identifié 17 à 18 acquisitions indépendantes de la photosynthèse chez les graminées. Grâce à une méthode d'horloge moléculaire relâchée, ces évènements ont été datés et la première apparition C4 a été estimée dans la sous-famille des Chloridoideae, il y a 32 à 25 millions d'années, à une période où les concentrations atmosphériques de CO2 ont décliné abruptement. Des modèles de maximum de vraisemblance ont montré qu'à la suite du déclin de CO2, la probabilité d'évoluer la photosynthèse C4 a fortement augmenté, confirmant ainsi qu'une faible concentration de CO2 est une cause potentielle de l'évolution de la photosynthèse C4. Afin d'identifier les mécanismes génétiques responsables des évolutions répétées de la photosynthèse C4, un segment des gènes codant pour la phosphoénolpyruvate carboxylase (PEPC), l'enzyme responsable de la fixation initiale du CO2 atmosphérique chez les plantes C4, ont été séquencés dans une centaine de graminées C3 et C4. Des analyses phylogénétiques ont permis de reconstituer l'histoire évolutive de la famille multigénique des PEPC et ont montré que l'évolution de PEPC spécifiques à la photosynthèse Ça a été causée par de la sélection positive agissant sur 21 codons, et ce simultanément dans huit lignées C4 différentes. Cette sélection positive a conduit à un grand nombre de changements génétiques convergents dans de nombreux clades différents, ce qui illustre la répétabilité de certains phénomènes évolutifs, et ce même au niveau génétique. Les changements sur la PEPC liés au C4 ont été utilisés pour confirmer des évolutions indépendantes du phénotype C4 dans des clades où l'arbre des espèces était incapable de différencier des apparitions indépendantes d'une seule apparition suivie par une réversion de C4 en C3. En considérant des gènes codant des protéines impliquées uniquement dans certains sous-types C4 (deux décarboxylases, l'enzyme malique à NADP et la phosphoénolpyruvate carboxykinase), des études ultérieures ont montré que ces enzymes C4 avaient elles-aussi évolué sous forte sélection positive et subi des changements génétiques parallèles lors des différentes origines de la photosynthèse C4. Les changements adaptatifs sur ces gènes liés seulement à certains sous-types C4 ont été utilisés pour retracer l'histoire des phénotypes de sous-types C4, ce qui a révélé que les caractères formant le trait C4 ont, dans certains cas, évolué de manière déconnectée. Ceci souligne la multiplicité du trait C4 et l'acquisition graduelle de composants participant à la pompe à CO2 qu'est la photosynthèse C4. Finalement, des analyses phylogénétiques des gènes codant pour la Rubisco (l'enzyme responsable de la fixation du CO2 en carbones organiques dans tous les organismes photosynthétiques) ont montré que l'évolution de la photosynthèse Ça a changé les pressions de sélection sur ce gène. Cinq codons ont été mutés de façon répétée afin d'adapter les propriétés cinétiques de la Rubisco aux fortes concentrations de CO2 présentes dans les cellules photosynthétiques des plantes C4. Globalement, l'approche phylogénétique adoptée durant cette thèse de doctorat a permis de démontré des phénomène fréquents de convergence génétique sur les enzymes liées à la photosynthèse C4. Les traces génétiques de l'évolution de la photosynthèse C4 ont permis de reconstituer des évènements qui se sont produits durant les derniers 30 millions d'années et ont prouvé l'utilité d'étudier des gènes directement responsables des variations phénotypiques pour inférer l'histoire évolutive d'un trait donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PURPOSE: The objective was to explore whether a satellite-based navigation system, global positioning system used in differential mode (DGPS), could accurately assess the speed of running in humans. METHODS: A subject was equipped with a portable GPS receptor coupled to a receiver for differential corrections, while running outdoors on a straight asphalt road at 27 different speeds. Actual speed (reference method) was assessed by chronometry. RESULTS: The accuracy of speed prediction had a standard deviation (SD) of 0.08 km x h(-1) for walking, 0.11 km x h(-1) for running, yielding a coefficient of variation (SD/mean) of 1.38% and 0.82%, respectively. There was a highly significant linear relationship between actual and DGPS speed assessment (r2 = 0.999) with little bias in the prediction equation, because the slope of the regression line was close to unity (0.997). CONCLUSION: the DGPS technique appears to be a valid and inconspicuous tool for "on line" monitoring of the speed of displacement of individuals located on any field on earth, for prolonged periods of time and unlimited distance, but only in specific environmental conditions ("open sky"). Furthermore, the accuracy of speed assessment using the differential GPS mode was improved by a factor of 10 as compared to non-differential GPS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Dès le printemps 2004, la construction d'une 2ème ligne de métro est entreprise dans la ville de Lausanne en Suisse. En reliant Ouchy, au bord du lac Léman (alt. 373 m) à Epalinges (alt. 711 m), le nouveau métro "M2" traversera dès 2008 l'agglomération lausannoise du Sud au Nord sur une distance de 6 km. Depuis l'avant-projet, en 1999, une grande quantité de données géologiques a été récolté et de nombreux forages exécutés sur le site. Ceci nous a donné une occasion unique d'entreprendre une étude de microgravimétrique urbaine de détail. Le mode de creusement du tunnel dépend fortement des matériaux à excaver et il est classiquement du domaine du géologue, avec ses connaissances de la géologie régionale et de la stratigraphie des forages, de fournir à l'ingénieur un modèle géologique. Ce modèle indiquera dans ce cas l'épaisseur des terrains meubles qui recouvrent le soubassement rocheux. La représentativité spatiale d'une information très localisée, comme celle d'un forage, est d'autant plus compliquée que le détail recherché est petit. C'est à ce moment là que la prospection géophysique, plus spécialement gravimétrique, peut apporter des informations complémentaires déterminantes pour régionaliser les données ponctuelles des forages. La microgravimétrie en milieu urbain implique de corriger avec soin les perturbations gravifiques sur la mesure de la pesanteur dues aux effets de la topographie, des bâtiments et des caves afin d'isoler l'effet gravifique dû exclusivement à l'épaisseur du remplissage des terrains meubles. Tenant compte de l'intensité des corrections topographiques en milieu urbain, nous avons donné une grande importance aux sous-sols, leurs effets gravifiques pouvant atteindre l'ordre du dixième de mGal. Nous avons donc intégré ces corrections celle de topographie et traité les effets des bâtiments de manière indépendante. Nous avons inclus dans le modèle numérique de terrain (MNT) la chaussée et les sous-sols afin de construire un modèle numérique de terrain urbain. Nous utiliserons un nouvel acronyme « MNTU »pour décrire ce modèle. Nous proposons d'établir des cartes de corrections topographiques préalables, basées sur les données à disposition fournies par le cadastre en faisant des hypothèses sur la profondeur des sous-sols et la hauteur des bâtiments. Les deux zones de test choisies sont caractéristiques des différents types d'urbanisation présente à Lausanne et se révèlent par conséquent très intéressantes pour élaborer une méthodologie globale de la microgravimétrie urbaine. Le but était d'évaluer l'épaisseur du remplissage morainique sur un fond rocheux molassique se situant à une profondeur variable de quelques mètres à une trentaine de mètres et d'en établir une coupe dans l'axe du futur tracé du métro. Les résultats des modélisations se sont révélés très convaincants en détectant des zones qui diffèrent sensiblement du modèle géologique d'avant projet. Nous avons également démontré que l'application de cette méthode géophysique, non destructive, est à même de limiter le nombre de sondages mécaniques lors de l'avant-projet et du projet définitif, ce qui peut limiter à la fois les coûts et le dérangement engendré par ces travaux de surface. L'adaptabilité de la technique gravimétrique permet d'intervenir dans toutes les différentes phases d'un projet de génie civil comme celui de la construction d'un métro en souterrain. KURZFASSUNG Seit dem Frühling 2004 ist in der Stadt Lausanne (Schweiz) die neue U-Bahn "M2" in Konstruktion. Diese soll auf 6 km Länge die Lausanner Agglomeration von Süd nach Nord durchqueren. Die dem Projekt zu Grunde liegende technische Planung sieht vor, daß die Bahnlinie hauptsächlich in der Molasse angesiedelt sein wird. Seit dem Vorentwurf (1999) ist eine große Anzahl geologischer Angaben gesammelt worden. Daraus ergab sich die einmalige Gelegenheit, die Informationen aus den damit verbundenen zahlreichen Bohrungen zu einer detaillierten mikrogravimetrischen Studie der Stadt Lausanne zu erweitern und zu vervollständigen. Das Ziel bestand darin, die Mächtigkeit der die Molasseüberdeckenden Moräneablagerung abzuschätzen, um eine entsprechendes geologisches Profile entlang der künftigen Bahnlinie zu erstellen. Weiterhin sollte gezeigt werden, daß die Anwendung dieser nicht-invasiven geophysikalischen Methode es ermöglicht, die Anzahl der benötigten Bohrungen sowohl in der Pilotphase wie auch im endgültigen Projekt zu reduzieren, was zu wesentlichen finanziellen Einsparungen in der Ausführung des Werkes beitragen würde. Die beiden in dieser Studie bearbeiteten Testzonen befinden sich im Nordteil und im Stadtzentrum von Lausanne und sind durch eine unterschiedliche Urbanisierung charakterisiert. Das anstehende Gestein liegt in verschiedenen Tiefen: von einigen Metern bis zu etwa dreißig Metern. Diese Zonen weisen alle Schwierigkeiten einer urbanen Bebauung mit hoher Verkehrsdichte auf und waren daher massgebend bei der Ausarbeitung einer globalen mikrogravimetrischen Methodologie für die Stadt Lausanne. Die so entwickelte Technik ermöglicht, die störenden Auswirkungen der Topographie, der Gebäude, der Keller und der Öffentlichen Infrastrukturen sorgfältig zu korrigieren, um so die ausschließlich auf die Mächtigkeit des Lockergesteins zurückzuführenden Effekte zu isolieren. In Bezug auf die Intensität der Auswirkungen der topographischen Korrekturen im Stadtgebiet wurde den Untergeschossen eine besonders grosse Bedeutung zugemessen da die entsprechenden Schwerkrafteffekte eine Grösse von rund einem Zehntel mGal erreichen können. Wir schlagen deshalb vor, vorläufige Karten der topographischen Korrekturen zu erstellen. Diese Korrekturen basieren auf den uns vom Katasterplan gelieferten Daten und einigen Hypothesen bezüglich der Tiefe der Untergeschosse und der Höhe der Gebäude. Die Verfügbarkeit einer derartigen Karte vor der eigentlichen gravimetrischen Messkampagne würde uns erlauben, die Position der Meßstationen besser zu wählen. Wir sahen zudem, daß ein entsprechenden a priori Filter benutzt werden kann, wenn die Form und die Intensität der Anomalie offensichtlich dem entsprechenden Gebäude zugeordnet werden können. Diese Strategie muß jedoch mit Vorsicht angewandt werden, denn falls weitere Anomalien dazukommen, können bedeutende Verschiebungen durch Übèrlagerungen der Schwerewirkung verschiedener Strukturen entstehen. Die Ergebnisse der Modellierung haben sich als sehr überzeugend erwiesen, da sie im Voraus unbekannte sensible Zonen korrekt identifiziert haben. Die Anwendbarkeit der in dieser Arbeit entwickelten gravimetrischen Technik ermöglicht es, während allen Phasen eines Grossbauprojekts, wie zum Beispiel bei der Konstruktion einer unterirdischen U-Bahn, einzugreifen. ABSTRACT Since Spring of 2004 a new metro line has been under construction in the city of Lausanne in Switzerland. The new line, the M2, will be 6 km long and will traverse the city from south to north. The civil engineering project determined that the line would be located primarily in the Molasse. Since the preparatory project in 1999, a great quantity of geological data has been collected, and the many drillings made on the site have proved to be a unique opportunity to undertake a study of urban microgravimetry. The goal was to evaluate the thickness of the morainic filling over the molassic bedrock, and to establish a section along the axis of the future line. It then had to be shown that the application of this nondestructive geophysical method could reduce the number of mechanical surveys required both for a preparatory and a definitive project, which would lead to real savings in the realization of a civil engineering project. The two test zones chosen, one in the northern part of the city and one in the city centre, are characterised by various types of urbanisation. Bedrock is at a depth varying from a few metres to about thirty metres. These zones well exemplify the various difficulties encountered in an urban environment and are therefore very interesting for the development of an overall methodology of urban microgravimetry. Microgravimetry in an urban environment requires careful corrections for gravific disturbances due to the effects of topography, buildings, cellars, and the infrastructure of distribution networks, in order to isolate the gravific effect due exclusively to the thickness of loose soil filling. Bearing in mind the intensity of the topographic corrections in an urban environment, we gave particular importance to basements. Their gravific effects can reach the order of one tenth of one meal, and can influence above all the precision of the Bouguer anomaly. We propose to establish preliminary topographic correction charts based on data provided to us by the land register, by making assumptions on the depths of basements and the heights of buildings. Availability of this chart previous to a gravimetry campaign would enable us to choose optimum measuring sites. We have also seen that an a priori filter can be used when the form and the intensity of the anomaly correspond visually to the corresponding building. This strategy must be used with caution because if other anomalies are to be associated, important shifts can be generated by the superposition of the effects of different structures. The results of the model have proved to be very convincing in detecting previously unknown sensitive zones. The adaptability of the gravimetry technique allows for application in all phases of a civil engineering project such as the construction of an underground metro line. RIASSUNTO Dalla primavera 2004 una nuova linea metropolitana é in costruzione nella città di Losanna in Svizzera. La nuova metropolitana "M2" traverserà per la lunghezza di 6 km il centro urbano di Losanna da sud a nord. II progetto d'ingegneria civile prevedeva un tracciato situato essenzialmente nel fondo roccioso arenaceo terziario (molassa). Dalla redazione del progetto preliminare, avvenuta nel 1999, una grande quantità di dati geologici sono stati raccolti e sono stati eseguiti numerosi sondaggi. Questo sì é presentato come un'occasione unica per mettere a punto uno studio microgravimetrico in ambiente urbano con lo scopo di valutare lo spessore dei terreni sciolti di origine glaciale che ricoprono il fondo roccioso di molassa e di mettere in evidenza come l'applicazione di questo metodo geofisico non distruttivo possa limitare il numero di sondaggi meccanici nella fase di progetto preliminare ed esecutivo con conseguente reale risparmio economico nella realizzazione di una tale opera. Le due zone di test sono situate una nella zona nord e la seconda nel centro storico di Losanna e sono caratterizzate da stili architettonici differenti. II fondo roccioso é situato ad una profondità variabile da qualche metro ad una trentina. Queste due zone sembrano ben rappresentare tutte le difficoltà di un ambiente urbano e ben si prestano per elaborare una metodologia globale per la microgravimetria in ambiente urbano. L'applicazione di questa tecnica nell'ambiente suddetto implica la correzione attenta delle perturbazioni sulla misura dell'accelerazione gravitazionale, causate dalla topografia, gli edifici, le cantine e le infrastrutture dei sottoservizi, per ben isolare il segnale esclusivamente causato dallo spessore dei terreni sciolti. Tenuto conto, dell'intensità delle correzioni topografiche, abbiamo dato grande importanza alle cantine, poiché il loro effetto sulle misure può raggiungere il decimo di mGal. Proponiamo quindi di redigere una carta delle correzioni topografiche preliminare all'acquisizione, facendo delle ipotesi sulla profondità delle cantine e sull'altezza degli edifici, sulla base delle planimetrie catastali. L'analisi di questa carta permetterà di scegliere le posizioni più adatte per le stazioni gravimetriche. Abbiamo anche osservato che un filtro a priori, qualora la forma e l'intensità dell'anomalia fosse facilmente riconducibile in maniera visuale ad un edificio, possa essere efficace. Tuttavia questa strategia deve essere utilizzata con precauzione, poiché può introdurre uno scarto, qualora più anomalie, dovute a differenti strutture, si sovrappongano. I risultati delle modellizzazioni si sono rivelati convincenti, evidenziando zone sensibili non conosciute preventivamente. L'adattabilità della tecnica gravimetrica ha mostrato di poter intervenire in differenti fasi di un progetto di ingegneria civile, quale è quella di un'opera in sotterraneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : L'article qui fait l'objet de ma thèse évalue une nouvelle approche pédagogique pour l'apprentissage de certains chapitres de physiopathologie. Le dispositif pédagogique se base sur l'alternance d'apprentissage ex-cathedra et de l'utilisation d'un site web comprenant des vignettes cliniques. Lors de la consultation de ces-dernières, l'étudiant est invité à demander des examens de laboratoire dont il pourrait justifier la pertinence selon le cas clinique étudié. La nouveauté du procédé réside dans le fait que, préalablement à son cours ex-cathedra, l'enseignant peut consulter les statistiques de demandes de laboratoire et ainsi orienter son cours selon les éléments mal compris par les étudiants. A la suite du cours ex-cathedra, les étudiants peuvent consulter sur internet la vignette clinique complète avec des explications. A l'issue de tout le cours, une évaluation auprès des étudiants a été conduite. Le procédé a été mis en place durant deux années consécutives et l'article en discute notamment les résultats. Nous avons pu conclure que cette méthode innovatrice d'enseignement amène les étudiants à mieux se préparer pour les cours ex-cathedra tout en permettant à l'enseignant d'identifier plus précisément quelles thématiques étaient difficiles pour les étudiants et donc d'ajuster au mieux son cours. Mon travail de thèse a consisté à créer ce dispositif d'apprentissage, à créer l'application web des vignettes cliniques et à l'implanter durant deux années consécutives. J'ai ensuite analysé les données des évaluations et écrit l'article que j'ai présenté à la revue 'Medical Teacher'. Après quelques corrections et précisions demandées par le comité de lecture, l'article a été accepté et publié. Ce travail a débouché sur une seconde version de l'application web qui est actuellement utilisée lors du module 3.1 de 3è année à l'Ecole de Médecine à Lausanne. Summary : Since the early days of sexual selection, our understanding of the selective forces acting on males and females during reproduction has increased remarkably. However, despite a long tradition of experimental and theoretical work in this field and relentless effort, numerous questions remain unanswered and many results are conflicting. Moreover, the interface between sexual selection and conservation biology has to date received little attention, despite existing evidence for its importance. In the present thesis, I first used an empirical approach to test various sexual selection hypotheses in a population of whitefish of central Switzerland. This precise population is characterized by a high prevalence of gonadal alterations in males. In particular, I challenged the hypothesis that whitefish males displaying peculiar gonadal features are of lower genetic quality than other seemingly normal males. Additionally, I also worked on identifying important determinant of sperm behavior. During a second theoretical part of my work, which is part of a larger project on the evolution of female mate preferences in harvested fish populations, I developed an individual-based simulation model to estimate how different mate discrimination costs affect the demographical behavior of fish populations and the evolutionary trajectories of female mate preferences. This latter work provided me with some insight on a recently published article addressing the importance of sexual selection for harvesting-induced evolution. I built upon this insight in a short perspective paper. In parallel, I let some methodological questions drive my thoughts, and wrote an essay about possible synergies between the biological, the philosophical and the statistical approach to biological questions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The effective dose delivered to the patient was determined, by modeling, for 257 types of examinations covering the different modalities of diagnostic and interventional radiology. The basic operational dosimetric quantities considered were obtained from the parameters of the examinations on the basis of dosimetric models. These models required a precise characterization of each examination. The operational dosimetric quantities were converted into doses to organs and effective doses using appropriate conversion factors. The determination of the collective effective dose to the Swiss population requires a number of corrections to account for the variability of several parameters: sensitivity of the detection system, age, gender, and build of the patient. The use of various dosimetric models is illustrated in this paper for a limited number of examination types covering the different radiological modalities, for which the established typical effective doses are given. With regard to individual doses, the study indicated that the average effective doses per type of examination can be classified into three levels: (a) the weakly irradiating examinations (less than 0.1 mSv), which represent 78% of the examinations and 4% of the collective dose, (b) the moderately irradiating examinations (between 0.1 mSv and 10 mSv), which represent 21% of the examinations and 72% of the collective dose, (c) the strongly irradiating examinations (more than 10 mSv), which represent 1% of the examinations and 24% of the collective dose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The calculation of elasticity parameters by sonic and ultra sonic wave propagation in saturated soils using Biot's theory needs the following variables : forpiation density and porosity (p, ø), compressional and shear wave velocities (Vp, Vs), fluid density, viscosity and compressibility (Pfi Ilfi Ki), matrix density and compressibility (p" K), The first four parameters can be determined in situ using logging probes. Because fluid and matrix characteristics are not modified during core extraction, they can be obtained through laboratory measurements. All parameters necessitate precise calibrations in various environments and for specific range of values encountered in soils. The slim diameter of boreholes in shallow geophysics and the high cost of petroleum equipment demand the use of specific probes, which usually only give qualitative results. The measurement 'of density is done with a gamma-gamma probe and the measurement of hydrogen index, in relation to porosity, by a neutron probe. The first step of this work has been carried out in synthetic formations in the laboratory using homogeneous media of known density and porosity. To establish borehole corrections different casings have been used. Finally a comparison between laboratory and in situ data in cored holes of known geometry and casing has been performed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of language proficiency extends late into childhood and includes not only producing or comprehending sounds, words and sentences, but likewise larger utterances spanning beyond sentence borders like dialogs. Dialogs consist of information units whose value constantly varies within a verbal exchange. While information is focused when introduced for the first time or corrected in order to alter the knowledge state of communication partners, the same information turns into shared knowledge during the further course of a verbal exchange. In many languages, prosodic means are used by speakers to highlight the informational value of information foci. Our study investigated the developmental pattern of event-related potentials (ERPs) in three age groups (12, 8 and 5 years) when perceiving two information focus types (news and corrections) embedded in short question-answer dialogs. The information foci contained in the answer sentences were either adequately marked by prosodic means or not. In so doing, we questioned to what extent children depend on prosodic means to recognize information foci or whether contextual means as provided by dialog questions are sufficient to guide focus processing.Only 12-year-olds yield prosody-independent ERPs when encountering new and corrective information foci, resembling previous findings in adults. Focus processing in the 8-year-olds relied upon prosodic highlighting, and differing ERP responses as a function of focus type were observed. In the 5-year-olds, merely prosody-driven ERP responses were apparent, but no distinctive ERP indicating information focus recognition. Our findings reveal substantial alterations in information focus perception throughout childhood that are likely related to long-lasting maturational changes during brain development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aim: When planning SIRT using 90Y microspheres, the partition model is used to refine the activity calculated by the body surface area (BSA) method to potentially improve the safety and efficacy of treatment. For this partition model dosimetry, accurate determination of mean tumor-to-normal liver ratio (TNR) is critical since it directly impacts absorbed dose estimates. This work aimed at developing and assessing a reliable methodology for the calculation of 99mTc-MAA SPECT/CT-derived TNR ratios based on phantom studies. Materials and methods: IQ NEMA (6 hot spheres) and Kyoto liver phantoms with different hot/background activity concentration ratios were imaged on a SPECT/CT (GE Infinia Hawkeye 4). For each reconstruction with the IQ phantom, TNR quantification was assessed in terms of relative recovery coefficients (RC) and image noise was evaluated in terms of coefficient of variation (COV) in the filled background. RCs were compared using OSEM with Hann, Butterworth and Gaussian filters, as well as FBP reconstruction algorithms. Regarding OSEM, RCs were assessed by varying different parameters independently, such as the number of iterations (i) and subsets (s) and the cut-off frequency of the filter (fc). The influence of the attenuation and diffusion corrections was also investigated. Furthermore, both 2D-ROIs and 3D-VOIs contouring were compared. For this purpose, dedicated Matlab© routines were developed in-house for automatic 2D-ROI/3D-VOI determination to reduce intra-user and intra-slice variability. Best reconstruction parameters and RCs obtained with the IQ phantom were used to recover corrected TNR in case of the Kyoto phantom for arbitrary hot-lesion size. In addition, we computed TNR volume histograms to better assess uptake heterogeneityResults: The highest RCs were obtained with OSEM (i=2, s=10) coupled with the Butterworth filter (fc=0.8). Indeed, we observed a global 20% RC improvement over other OSEM settings and a 50% increase as compared to the best FBP reconstruction. In any case, both attenuation and diffusion corrections must be applied, thus improving RC while preserving good image noise (COV<10%). Both 2D-ROI and 3D-VOI analysis lead to similar results. Nevertheless, we recommend using 3D-VOI since tumor uptake regions are intrinsically 3D. RC-corrected TNR values lie within 17% around the true value, substantially improving the evaluation of small volume (<15 mL) regions. Conclusions: This study reports the multi-parameter optimization of 99mTc MAA SPECT/CT images reconstruction in planning 90Y dosimetry for SIRT. In phantoms, accurate quantification of TNR was obtained using OSEM coupled with Butterworth and RC correction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVES: To show the effectiveness of a brief group alcohol intervention. Aims of the intervention were to reduce the frequency of heavy drinking occasions, maximum number of drinks on an occasion and overall weekly consumption. METHODS: A cluster quasi-randomized control trial (intervention n = 338; control n = 330) among 16- to 18-year-old secondary school students in the Swiss Canton of Zürich. Groups homogeneous for heavy drinking occasions (5+/4+ drinks for men/women) consisted of those having medium risk (3-4) or high risk (5+) occasions in the past 30 days. Groups of 8-10 individuals received two 45-min sessions based on motivational interviewing techniques. RESULTS: Borderline significant beneficial effects (p < 0.10) on heavy drinking occasions and alcohol volume were found 6 months later for the medium-risk group only, but not for the high-risk group. None of the effects remained significant after Bonferroni corrections. CONCLUSIONS: Group intervention was ineffective for all at-risk users. The heaviest drinkers may need more intensive treatment. Alternative explanations were iatrogenic effects among the heaviest drinkers, assessment reactivity, or reduction of social desirability bias at follow-up through peer feedback.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Captan and folpet are two fungicides largely used in agriculture, but biomonitoring data are mostly limited to measurements of captan metabolite concentrations in spot urine samples of workers, which complicate interpretation of results in terms of internal dose estimation, daily variations according to tasks performed, and most plausible routes of exposure. This study aimed at performing repeated biological measurements of exposure to captan and folpet in field workers (i) to better assess internal dose along with main routes-of-entry according to tasks and (ii) to establish most appropriate sampling and analysis strategies. The detailed urinary excretion time courses of specific and non-specific biomarkers of exposure to captan and folpet were established in tree farmers (n = 2) and grape growers (n = 3) over a typical workweek (seven consecutive days), including spraying and harvest activities. The impact of the expression of urinary measurements [excretion rate values adjusted or not for creatinine or cumulative amounts over given time periods (8, 12, and 24 h)] was evaluated. Absorbed doses and main routes-of-entry were then estimated from the 24-h cumulative urinary amounts through the use of a kinetic model. The time courses showed that exposure levels were higher during spraying than harvest activities. Model simulations also suggest a limited absorption in the studied workers and an exposure mostly through the dermal route. It further pointed out the advantage of expressing biomarker values in terms of body weight-adjusted amounts in repeated 24-h urine collections as compared to concentrations or excretion rates in spot samples, without the necessity for creatinine corrections.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Following wider acceptance of 'the thrifty phenotype' hypothesis and the convincing evidence that early-life exposures can influence adult health even decades after the exposure, much interest has been placed on the mechanisms through which early-life exposures become biologically embedded. MATERIALS AND METHODS: In this review, we summarize the current literature regarding biological embedding of early-life experiences. To this end, we conducted a literature search to identify studies investigating early-life exposures in relation to DNA methylation changes. In addition, we summarize the challenges faced in investigations of epigenetic effects, stemming from the peculiarities of this emergent and complex field. A proper systematic review and meta-analyses were not feasible given the nature of the evidence. RESULTS: We identified seven studies on early-life socio-economic circumstances, 10 studies on childhood obesity and six studies on early-life nutrition all relating to DNA methylation changes that met the stipulated inclusion criteria. The pool of evidence gathered, albeit small, favours a role of epigenetics and DNA methylation in biological embedding, but replication of findings, multiple comparison corrections, publication bias and causality are concerns remaining to be addressed in future investigations. CONCLUSIONS: Based on these results, we hypothesize that epigenetics, in particular DNA methylation, is a plausible mechanism through which early-life exposures are biologically embedded. This review describes the current status of the field and acts as a stepping stone for future, better designed investigations on how early-life exposures might become biologically embedded through epigenetic effects.