60 resultados para saline solution


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The shape of supercoiled DNA molecules in solution is directly visualized by cryo-electron microscopy of vitrified samples. We observe that: (i) supercoiled DNA molecules in solution adopt an interwound rather than a toroidal form, (ii) the diameter of the interwound superhelix changes from about 12 nm to 4 nm upon addition of magnesium salt to the solution and (iii) the partition of the linking deficit between twist and writhe can be quantitatively determined for individual molecules.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Study objectives: Many major drugs are not available in paediatric form. The aim of this study was to develop a stable liquid solution of captopril for oral paediatric use allowing individualised dosage and easy administration to newborn and young patients. Methods: A specific HPLC-UV method was developed. In a pilot study, a number of formulations described in the literature as affording one-month stability were examined. In the proper long-term study, the formulation that gave the best results was then prepared in large batches and its stability monitored for two years at 5°C and room temperature, and for one year at 40°C. Results: Most formulations described in the literature were found wanting in our pilot study. A simple solution of the drug (1 mg/mL) in purified water (European Pharmacopeia) containing 0.1% disodium edetate (EDTA-Na) as preservative proved chemically and microbiologically stable at 5°C and room temperature for two years. Conclusion: The proposed in-house formulation fulfils stringent criteria of purity and stability and is fully acceptable for oral administration to newborn and young patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Erythrocyte concentrates (ECs) are the major labile blood product being transfused worldwide, aiming at curing anemia of diverse origins. In Switzerland, ECs are stored at 4 °C up to 42 days in saline-adenine-glucose-mannitol (SAGM). Such storage induces cellular lesions, altering red blood cells (RBCs) metabolism, protein content and rheological properties. A hot debate exists regarding the impact of the storage lesions, thus the age of ECs on transfusion-related clinical adverse outcomes. Several studies tend to show that poorer outcomes occur in patients receiving older blood products. However, no clear association was demonstrated up to date. While metabolism and early rheological changes are reversible through transfusion of the blood units, oxidized proteins cannot be repaired, and it is likely such irreversible damages would affect the quality of the blood product and the efficiency of the transfusion. In vivo, RBCs are constantly exposed to oxygen fluxes, and are thus well equipped to deal with oxidative challenges. Moreover, functional 20S proteasome complexes allow for recognition and proteolysis of fairly oxidized protein, and some proteins can be eliminated from RBCs by the release of microvesicles. The present PhD thesis is involved in a global research project which goal is to characterize the effect of processing and storage on the quality of ECs. Assessing protein oxidative damages during RBC storage is of major importance to understand the mechanisms of aging of stored RBCs. To this purpose, redox proteomic-based investigations were conducted here. In a first part, cysteine oxidation and protein carbonylation were addressed via 2D-DIGE and derivatization-driven immunodetection approaches, respectively. Then, the oxidized sub- proteomes were characterized through LC-MS/MS identification of proteins in spots of interest (cysteine oxidation) or affinity-purified carbonylated proteins. Gene ontology annotation allowed classifying targets of oxidation according to their molecular functions. In a third part, the P20S activity was evaluated throughout the storage period of ECs, and its susceptibility to highly oxidized environment was investigated. The potential defensive role of microvesiculation was also addressed through the quantification of eliminated carbonylated proteins. We highlighted distinct protein groups differentially affected by cysteine oxidation, either reversibly or irreversibly. In addition, soluble extracts showed a decrease in carbonylation at the beginning of the storage and membrane extracts revealed increasing carbonylation after 4 weeks of storage. Engaged molecular functions revealed that antioxidant (AO) are rather reversibly oxidized at their cysteine residue(s), but are irreversibly oxidized through carbonylation. In the meantime, the 20S proteasome activity is decreased by around 40 % at the end of the storage period. Incubation of fresh RBCs extracts with exogenous oxidized proteins showed a dose-dependent and protein-dependent inhibitory effect. Finally, we proved that the release of microvesicles allows the elimination of increasing quantities of carbonylated proteins. Taken together, these results revealed an oxidative pathway model of RBCs storage, on which further investigation towards improved storage conditions will be based. -- Les concentrés érythrocytaires (CE) sont le produit sanguin le plus délivré au monde, permettant de traiter différentes formes d'anémies. En Suisse, les CE sont stocké à 4 °C pendant 42 jours dans une solution saline d'adénine, glucose et mannitol (SAGM). Une telle conservation induit des lésions de stockage qui altèrent le métabolisme, les protéines et les propriétés rhéologique du globule rouge (GR). Un débat important concerne l'impact du temps de stockage des CE sur les risques de réaction transfusionnelles, certaines études tentant de démontrer que des transfusions de sang vieux réduiraient l'espérance de vie des patients. Cependant, aucune association concrète n'a été prouvée à ce jour. Alors que les modifications du métabolisme et changement précoces des propriétés rhéologiques sont réversibles suite à la transfusion du CE, les protéines oxydées ne peuvent être réparées, et il est probable que de telles lésions affectent la qualité et l'efficacité des produits sanguins. In vivo, les GR sont constamment exposés à l'oxygène, et sont donc bien équipés pour résister aux lésions oxydatives. De plus, les complexes fonctionnels de proteasome 20S reconnaissent et dégradent les protéines modérément oxydées, et certaines protéines peuvent être éliminées par les microparticules. Cette thèse de doctorat est imbriquée dans un projet de recherche global ayant pour objectif la caractérisation des effets de la préparation et du stockage sur la qualité des GR. Evaluer les dommages oxydatifs du GR pendant le stockage est primordial pour comprendre les mécanismes de vieillissement des produits sanguin. Dans ce but, des recherches orientées redoxomique ont été conduites. Dans une première partie, l'oxydation des cystéines et la carbonylation des protéines sont évaluées par électrophorèse bidimensionnelle différentielle et par immunodétection de protéines dérivatisées. Ensuite, les protéines d'intérêt ainsi que les protéines carbonylées, purifiées par affinité, sont identifiées par spectrométrie de masse en tandem. Les protéines cibles de l'oxydation sont classées selon leur fonction moléculaire. Dans une troisième partie, l'activité protéolytique du protéasome 20S est suivie durant la période de stockage. L'impact du stress oxydant sur cette activité a été évalué en utilisant des protéines exogènes oxydées in vitro. Le potentiel rôle défensif de la microvesiculation a également été étudié par la quantification des protéines carbonylées éliminées. Dans ce travail, nous avons observé que différents groupes de protéines sont affectés par l'oxydation réversible ou irréversible de leurs cystéines. De plus, une diminution de la carbonylation en début de stockage dans les extraits solubles et une augmentation de la carbonylation après 4 semaines dans les extraits membranaires ont été montrées. Les fonctions moléculaires engagées par les protéines altérées montrent que les défenses antioxydantes sont oxydées de façon réversible sur leurs résidus cystéines, mais sont également irréversiblement carbonylées. Pendant ce temps, l'activité protéolytique du protéasome 20S décroit de 40 % en fin de stockage. L'incubation d'extraits de GR en début de stockage avec des protéines oxydées exogènes montre un effet inhibiteur « dose-dépendant » et « protéine-dépendant ». Enfin, les microvésicules s'avèrent éliminer des quantités croissantes de protéines carbonylées. La synthèse de ces résultats permet de modéliser une voie oxydative du stockage des GRs, à partir de laquelle de futures recherches seront menées avec pour but l'amélioration des conditions de stockage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: Bacteria form a biofilm on the surface of orthopaedic devices, causing persistent and infection. Little is known about biofilms formation on bone grafts and bone substitutes. We analyzed various representative materials regarding their propensity for biofilm formation caused by Staphylococcus aureus.Methods: As bone graft beta-tricalciumphosphate (b-TCP, CyclOsTM) and as bone substitute a tantalum metal mesh (trabecular metalTM) and PMMA (Pala-cosTM) were investigated. As test organism S. aureus (strain ATCC 29213) was used. Test materials were incubated with bacterial solution of 105 colony-forming units (cfu)/ml at 37°C for 24 h without shaking. After 24 h, the test materials were removed and washed 3 times in normal saline, followed by sonication in 50 ml Ringer solution at 40 kHz for 5 minutes. The resulting sonication fluid was plated in aliquots of 0.1 ml onto aerobe blood agar with 5% sheep blood and incubated at 37°C with 5% CO2 for 24 h. Then, bacterial counts were enumerated and expressed as cfu/ml. All experiments were performed in triplicate to calculate the mean ± standard deviation. The Wilcoxon test was used for statistical calculations.Results: The three investigated materials show a differing specific surface with b-TCB>trabecular metal>PMMA per mm2. S. aureus formed biofilm on all test materials as confirmed by quantitative culture after washing and sonication. The bacterial counts in sonication fluid (in cfu/ml) were higher in b-TCP (5.1 x 106 ± 0.6 x 106) and trabecular metal (3.7 x 106 ± 0.6 x 106) than in PMMA (3.9 x 104 ± 1.8 x 104), p<0.05.Conclusion: Our results demonstrate that about 100-times more bacteria adhere on b-TCP and trabecular metal than on PMMA, reflecting the larger surface of b-TCP and trabecuar metal compared to the one of PMMA. This in-vitro data indicates that bone grafts are susceptible to infection. Further studies are needed to evaluate efficient approaches to prevent and treat infections associated with bone grafts and substitutes, including modification of the surface or antibacterial coating.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PURPOSE: The combination of embolic beads with a multitargeted tyrosine kinase inhibitor that inhibits tumor vessel growth is suggested as an alternative and improvement to the current standard doxorubicin-eluting beads for use in transarterial chemoembolization. This study demonstrates the in vitro loading and release kinetics of sunitinib using commercially available embolization microspheres and evaluates the in vitro biologic efficacy on cell cultures and the resulting in vivo pharmacokinetics profiles in an animal model. MATERIALS AND METHODS: DC Bead microspheres, 70-150 µm and 100-300 µm (Biocompatibles Ltd., Farnham, United Kingdom), were loaded by immersion in sunitinib solution. Drug release was measured in saline in a USP-approved flow-through apparatus and quantified by spectrophotometry. Activity after release was confirmed in cell culture. For pharmacokinetics and in vivo toxicity evaluation, New Zealand white rabbits received sunitinib either by intraarterial injection of 100-300 µm sized beads or per os. Plasma and liver tissue drug concentrations were assessed by liquid chromatography-tandem mass spectroscopy. RESULTS: Sunitinib loading on beads was close to complete and homogeneous. A total release of 80% in saline was measured, with similar fast-release profiles for both sphere sizes. After embolization, drug plasma levels remained below the therapeutic threshold (< 50 ng/mL), but high concentrations at 6 hours (14.9 µg/g) and 24 hours (3.4 µg/g) were found in the liver tissue. CONCLUSIONS: DC Bead microspheres of two sizes were efficiently loaded with sunitinib and displayed a fast and almost complete release in saline. High liver drug concentrations and low systemic levels indicated the potential of sunitinib-eluting beads for use in embolization.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMEL'agriculture urbaine et périurbalne - nommée ci-après AU - est un thème fort de recherche transversale, au vu des nombreux enjeux économiques, sociaux et environnementaux. L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle locale, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée sans porter atteinte à la santé et à l'environnement.Une approche basée sur l'étude des processus géochimiques dans ie sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.L'évaluation des impacts de l'irrigation avec des eaux usées brutes et des eaux de nappe saumâtres sur la qualité des sols (chapitre 2) a montré que l'alcalinité et les teneurs en calcium élevées des eaux saumâtres induisent la précipitation de CaC03 dans l'horizon superficiel du sol. Na remplace consécutivement Ca sur le complexe argilo-humique du sol et les bicarbonates diminuent dans la solution du sol. Le carbone organique dissout (COD) augmente significativement dans la solution du sol et dans la nappe sous-jacente. Malgré l'alcalinité et les teneurs très élevées en calcium des eaux usées, il y a peu de précipitation de CaC03 dans l'horizon superficiel du sol et une faible augmentation du sodium échangeable ESP. La nitrification de l'ammonium des eaux usées (moy 190mg/L à Pikine) produit des protons, qui ne sont plus tamponnés par les bicarbonates exportés hors du profil. Il y a alors une nette baisse de pH des sols irrigués par des eaux usées non traitées. Les sols irrigués par des eaux usées et saumâtres stockent moins de C et Ν que les sols de référence.L'évaluation de l'influence de l'occupation des sols en zone périurbaine sur à la nappe phréatique peu profonde (chapitre 3) a permis de déterminer les traceurs représentatifs de l'occupation du sol, à savoir Br/CI, NO3/CI et δ180-Ν03 pour l'irrigation par des eaux usées, pH et δ15Ν-Ν03 pour l'irrigation par des eaux de nappe, et Rb+Cr et Κ pour les lixiviats de fosses septiques. Ce chapitre a mis en évidence des points importants de la dynamique de l'azote en zone périurbaine sous deux occupations du sol : (1) la dénitrification est un processus important dans l'agrosystème périurbain de Dakar en bas de dune, dans les gleysols où l'on trouve des conditions temporairement réduites et un substrat organique favorables aux microorganismes de la dénitrification. Les teneurs en nitrates sont presque nulles avec irrigation d'eau de nappe. (2) en bas de pente, mais avec irrigation quotidienne par les eaux usées, l'apport continu d'ammonium inhibe probablement la dénitrification, mais favorise la volatilisation. (3) la nitrification de l'ammonium dans la nappe lors de la lixiviation des fosses septiques se distingue de la nitrification de l'ammonium dans la zone non saturée dans la zone d'agriculture périurbaine par la composition isotopique de l'oxygène de l'eau. Une comparaison des flux d'azote entre l'agrosystème et les quartiers périurbains de Dakar (chapitre 4) ont révélé que ces derniers étaient du même ordre de grandeur par unité de surface, à savoir 2-4 tonnes Ν /ha/an.L'évaluation des flux de pesticides dans l'agrosystème et des risques induits pour les eaux souterraines (chapitre 5) a révélé un fiux total de pesticides de 60kg/ha/an, totalisant 15 matières actives. Seules deux de ces matières actives sont autorisées par le comité des pesticides sahélien. Les pesticides les plus utilisés par les producteurs sont l'organochloré dicofol, les organophosphorés methamidophos, dimethoate et fenithrotion ainsi que le cabamate methomyl. Les flux les plus importants sont de 9 à 7 kg/ha/an (methomyl, methamidophos, ethoprophos et dicofol). Les pesticides qui présentent un risque élevé de contamination des eaux souterraines et qui devraient être prioritaires pour un suivi analytique sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, une meilleure gestion de la fertilisation est nécessaire dans la zone d'AU de Dakar, afin de (1) réduire les pertes gazeuses qui contribuent à l'effet de serre, (2) de ralentir la minéralisation du carbone et de l'azote organiques pour créer un stock de C et Ν dans ces sols, (3) de limiter le lessivage dans la nappe et enfin, 4) d'augmenter l'efficacité d'utilisation de Ν par les plantes. Une optimisation de l'irrigation devrait limiter l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et les mares permanentes.ABSTRACTUrban and periurban agriculture (UA) is an important issue in southern countries, because of its key role in their social and economical development and its environmental concern. The goal of this study was to contribute to a better understanding of pollutant transfer and nutrient cycling at the local scale, in order to implement the necessary improvements to guarantee the sustainability of this practice.An approach based on geochemical processes occurring in the vadose zone from the surface down to the groundwater level was chosen, at the scale of cultivated plots and at the regional scale of Dakar periurban areas, to determine the influence of land use.The assessment of irrigation with untreated domestic wastewater and brackish water on soil quality (chapter 2) showed: (1) that the high alkalinity and calcium contents of brackish water induce CaC03 precipitation in the top layer of the soil and therefore a replacement of Ca by Na on the clay- humic complexes, strongly marked during the dry season. Dissolved organic carbon (DOC) increased significantly in the soil solution and in the underlying groundwater. (2) in spite of the similarly high alkalinity and Ca contents of waste water, there is only little CaC03 precipitation and a low increase of the percentage of exchangeable sodium (ESP) in the soil top layer. The nitrification of the ammonium of wastewater (mean 190 mg/L in Pikine) produces protons, which are not any more buffered by bicarbonates exported out of the soil profile, which leads to a net decline of soil pH. Both soils irrigated with untreated wastewater and brackish water store less of C and Ν than soils irrigated with non saline groundwater.The assessment of the impact of land use on the shallow groundwater (chapter 3) allowed determining representative tracers of the land use. Low Br/CI ratio, high NO3/CI ratio and low δ1βΟ- nitrate indicated the influence of wastewater; high pH and high 515N-nitrates indicated the influence of brackish water together with high amendments of organic fertilizers; high Rb+Cr and Κ indicated the influence of poor sanitation facilities in periurban districts (septic tank leakage). This chapter also pointed out the following facts about the nitrogen dynamics : (1) denitrification is a key-process in the Dakar UA agrosystem in the gleysols irrigated with groundwater. The underlying groundwater is almost nitrate free. (2) in the Gleysols irrigated with waste water, ammonium inhibits denitrification but facilitate ammoniac volatilization. A comparison of nitrogen balance between the UA agrosystem and the periurban districts of Dakar (chapter 4) revealed similar flows per surface unit, namely 2-4 tons Ν / ha / year.The evaluation of pesticides use in the UA agrosystem and the risk assessment for the groundwater (chapter 5) revealed a total flow of pesticides of 60kg / ha / year, totalizing 15 active substances. Only two of these are authorized by the Sahelian Pesticides Committee. The most used pesticides are dicofol (organochlorinated), methamidophos, dimethoate and fenithrotion (organophosphate) as well as methomyl. (carbamate). The most important flows vary between 9 to 7 kg / ha / year. Pesticides with a high risk of groundwater contamination - according to SIRIS and EPRIP 2 indicators - are: carbofuran, dimethoate, ethoprophos and methomyl. These substances should be established as a priority for an analytical follow-up in the different environmental compartments.In conclusion, a better management of the fertilization is necessary in the Dakar UA, (1) to reduce the gaseous losses which contribute to greenhouse emissions (2) to slow down the mineralization of the organic carbon and the nitrogen, in order to enhance the C and Ν stock in these soils, (3) to limit the nitrate leaching in the groundwater and finally, 4) to increase the N-use efficiency of plants. An optimization of the irrigation scheme should limit the secondary sodisation if coupled with an increase the stable organic matter of the soil. An integrated or biologic crop pest strategy is urgently needed to minimize risks with respect to ground and surface water (ponds used for fishing).RESUME LARGE PUBLICL'agriculture mondiale connaît actuellement une crise majeure, affectée par les changements climatiques, la sécurité alimentaire et les dégradations de l'environnement. Elle n'a plus le rôle unique de produire, mais devient un élément essentiel de la protection des ressources naturelles et du paysage. Les politiques agricoles basées sur les marchés mondiaux devront se réorienter vers une agriculture locale basée sur le développement durable.La production alimentaire située dans l'enceinte des villes, nommée agriculture urbaine ou périurbaine (AU ci-après) joue un rôle important dans le contexte actuel d'accroissement de la population et de la pauvreté urbaines. L'AU concerne en effet la majorité des mégapoies du monde, fait vivre plus de 200 millions de personnes dans les pays du Sud, fournit jusqu'à 80% de la demande urbaine en certains produits frais, fait barrière à l'extension urbaine et permet un recyclage de certains déchets urbains. L'AU a pour particularité d'être à cheval entre des politiques rurales et urbaines, d'où un délaissement ce cette activité au secteur informel. Ce qui a développé de nombreuses stratégies à risques, comme à Dakar, où les petits producteurs périurbains irriguent quotidiennement avec des eaux usées domestiques par manque d'accès à une eau de bonne qualité et pour raccourcir les cycles de production. L'extrême précarité foncière des acteurs de l'AU de Dakar les empêchent d'investir à long terme et induit des pratiques inadéquates d'irrigation, d'usage de pesticides et de fertilisation de ces sols sableux.L'objectif de cette recherche était de contribuer à une meilleure connaissance des processus de transfert de polluants et du cycle des nutriments à l'échelle des parcelles cultivées par des eaux usées et des eaux saumâtres, afin de déterminer sous quelles conditions l'AU de Dakar peut être pratiquée et surtout maintenue sans porter atteinte à la santé et à l'environnement. Pour cela, une approche basée sur l'étude des processus géochimiques dans le sol jusqu'à la nappe a été choisie, à l'échelle de la parcelle cultivée et à une échelle un peu plus large de la zone périurbaine de Dakar pour déterminer les influences du type d'occupation du sol.Les résultats principaux de cette étude ont montré que (1) il y a un processus de salinisation anthropique des sols (sodisation) lors d'irrigation avec des eaux de nappe saumâtres, un processus accentué en saison sèche et lors d'années à pluviométrie déficitaire. Bien que les eaux usées soient aussi salines que les eaux de nappe, la salinisation des sols irrigués' par des eaux usées est limitée par l'ammonium présent dans les eaux usées (moy 190mg NH4/L à Pikine) qui produit de l'acidité lors de la transformation en nitrates dans le sol (nitrification). (2) les sols irrigués par des eaux usées (EU) stockent moins de C et Ν que les sois de référence, ce qui montrent bien que l'azote des eaux usées n'est pas disponible pour les plantes, mais est lessivé dans la nappe (100 à 450 mg/L N03 sous irrigation par EU, alors que la limite de OMS est de 50mg/L). (3) l'utilisation des isotopes stables des nitrates et des éléments traces, notamment le bore et le brome, ont permis de distinguer l'influence de l'irrigation par des eaux usées, de l'irrigation par des eaux de nappe et des lixiviats de fosses septiques sur les propriétés de la nappe. (4) Le processus de la dénitrification (atténuation naturelle des concentrations en nitrates de la nappe par biotransformation en azote gazeux) est important dans les zones basses de l'agrosystème périurbain de Dakar, sous irrigation par eaux naturelles (ΝΟ3 < 50mg/L). Tandis que sous habitat sans assainissement adéquat, les nitrates atteignent 300 à 700 mg/L. (5) Le flux total de pesticides dans l'AU est énorme (60kg/ha/an) totalisant 15 pesticides, dont deux seulement sont autorisés. Les pesticides les plus utilisés sont des insecticides organophosphorés et organochlorés classés extrêmement dangereux à dangereux par l'OMS, appliqués à des doses de 2 à 9 kg/ha/an. Les pesticides qui ont montré un risque élevé de contamination des eaux souterraines avec les indicateurs SIRIS et EPRIP2 sont : le carbofuran, le dimethoate, l'ethoprophos et le methomyl.En conclusion, nous recommandons la reconstitution d'un horizon superficiel des sols riche en matière organique stable et structuré par production locale de compost. Cette mesure réduira les pertes gazeuses contribuant à l'effet de serre, augmentera le stock de Ν dans ces sols, alors utilisable par les plantes et permettra de diminuer l'irrigation car la capacité de rétention de l'eau dans le sol sera accru, ce qui limitera le lessivage des nitrates dans la nappe et l'alcalinisation secondaire. Enfin, la mise en place d'une lutte intégrée ou biologique contre les ravageurs est indispensable afin de minimiser les risques pour les eaux souterraines et lesmares permanentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the past decades, prognosis of head and neck squamous cell carcinoma (HNSCC) has not improved even though treatment has made substantial progress. Since the description of immune response against some cancers, antitumoral immunotherapy has been studied to be used as adjunctive treatment in various cancer types. This article review contributions made in the field of immunotherapy on HNSCC in the past few years. It appears that this approach may play an important role in the treatment of head and neck squamous cell carcinoma. Among various TAAs, cancer testis antigens family may be promising candidates for specific immune therapy in HNSCC. Ongoing studies will confirm whether expression CTAs generate an immune response in clinical vaccine trials.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJECTIVE: Enteral glutamine supplementation and antioxidants have been shown to be beneficial in some categories of critically ill patients. This study investigated the impact on organ function and clinical outcome of an enteral solution enriched with glutamine and antioxidant micronutrients in patients with trauma and with burns. METHODS: This was a prospective study of a historical control group including critically ill, burned and major trauma patients (n = 86, 40 patients with burns and 46 with trauma, 43 in each group) on admission to an intensive care unit in a university hospital (matching for severity, age, and sex). The intervention aimed to deliver a 500-mL enteral solution containing 30 g of glutamine per day, selenium, zinc, and vitamin E (Gln-AOX) for a maximum of 10 d, in addition to control treatment consisting of enteral nutrition in all patients and intravenous trace elements in all burn patients. RESULTS: Patients were comparable at baseline, except for more inhalation injuries in the burn-Gln-AOX group (P = 0.10) and greater neurologic impairment in the trauma-Gln-AOX group (P = 0.022). Intestinal tolerance was good. The full 500-mL dose was rarely delivered, resulting in a low mean glutamine daily dose (22 g for burn patients and 16 g for trauma patients). In burn patients intravenous trace element delivery was superior to the enteral dose. The evolution of the Sequential Organ Failure Assessment score and other outcome variables did not differ significantly between groups. C-reactive protein decreased faster in the Gln-AOX group. CONCLUSION: The Gln-AOX supplement was well tolerated in critically ill, injured patients, but did not improve outcome significantly. The delivery of glutamine below the 0.5-g/kg recommended dose in association with high intravenous trace element substitution doses in burn patients are likely to have blunted the impact by not reaching an efficient treatment dose. Further trials testing higher doses of Gln are required.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Volumes of data used in science and industry are growing rapidly. When researchers face the challenge of analyzing them, their format is often the first obstacle. Lack of standardized ways of exploring different data layouts requires an effort each time to solve the problem from scratch. Possibility to access data in a rich, uniform manner, e.g. using Structured Query Language (SQL) would offer expressiveness and user-friendliness. Comma-separated values (CSV) are one of the most common data storage formats. Despite its simplicity, with growing file size handling it becomes non-trivial. Importing CSVs into existing databases is time-consuming and troublesome, or even impossible if its horizontal dimension reaches thousands of columns. Most databases are optimized for handling large number of rows rather than columns, therefore, performance for datasets with non-typical layouts is often unacceptable. Other challenges include schema creation, updates and repeated data imports. To address the above-mentioned problems, I present a system for accessing very large CSV-based datasets by means of SQL. It's characterized by: "no copy" approach - data stay mostly in the CSV files; "zero configuration" - no need to specify database schema; written in C++, with boost [1], SQLite [2] and Qt [3], doesn't require installation and has very small size; query rewriting, dynamic creation of indices for appropriate columns and static data retrieval directly from CSV files ensure efficient plan execution; effortless support for millions of columns; due to per-value typing, using mixed text/numbers data is easy; very simple network protocol provides efficient interface for MATLAB and reduces implementation time for other languages. The software is available as freeware along with educational videos on its website [4]. It doesn't need any prerequisites to run, as all of the libraries are included in the distribution package. I test it against existing database solutions using a battery of benchmarks and discuss the results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Etude critique de Charles Larmore, Modernité et morale (Paris, PUF, 1993). Cet article présente et discute le projet de son auteur de défendre l'idée d'une morale « pragmatiste » et « intuitionniste ». Restituant la position de l'auteur, il expose les arguments en faveur d'une conception pragmatiste de la vérité morale et ceux en faveur du recours à l'intuition pour découvrir le contenu de nos obligations morales. Dans une brève note critique finale, il suggère que le pragmatisme semble peu à même d'échapper tout à fait au reproche de relativisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Motivation: Genome-wide association studies have become widely used tools to study effects of genetic variants on complex diseases. While it is of great interest to extend existing analysis methods by considering interaction effects between pairs of loci, the large number of possible tests presents a significant computational challenge. The number of computations is further multiplied in the study of gene expression quantitative trait mapping, in which tests are performed for thousands of gene phenotypes simultaneously. Results: We present FastEpistasis, an efficient parallel solution extending the PLINK epistasis module, designed to test for epistasis effects when analyzing continuous phenotypes. Our results show that the algorithm scales with the number of processors and offers a reduction in computation time when several phenotypes are analyzed simultaneously. FastEpistasis is capable of testing the association of a continuous trait with all single nucleotide polymorphism ( SNP) pairs from 500 000 SNPs, totaling 125 billion tests, in a population of 5000 individuals in 29, 4 or 0.5 days using 8, 64 or 512 processors.