35 resultados para Non-ionic surfactant. Cloud point. Flory-Huggins model. UNIQUAC model. NRTL model

em Université de Lausanne, Switzerland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

An online algorithm for determining respiratory mechanics in patients using non-invasive ventilation (NIV) in pressure support mode was developed and embedded in a ventilator system. Based on multiple linear regression (MLR) of respiratory data, the algorithm was tested on a patient bench model under conditions with and without leak and simulating a variety of mechanics. Bland-Altman analysis indicates reliable measures of compliance across the clinical range of interest (± 11-18% limits of agreement). Resistance measures showed large quantitative errors (30-50%), however, it was still possible to qualitatively distinguish between normal and obstructive resistances. This outcome provides clinically significant information for ventilator titration and patient management.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Changes in expression and function of voltage-gated sodium channels (VGSC) in dorsal root ganglion (DRG) neurons may play a major role in the genesis of peripheral hyperexcitability that occurs in neuropathic pain. We present here the first description of changes induced by spared nerve injury (SNI) to Na(v)1 mRNA levels and tetrodotoxin-sensitive and -resistant (TTX-S/TTX-R) Na(+) currents in injured and adjacent non-injured small DRG neurons. VGSC transcripts were down-regulated in injured neurons except for Na(v)1.3, which increased, while they were either unchanged or increased in non-injured neurons. TTX-R current densities were reduced in injured neurons and the voltage dependence of steady-state inactivation for TTX-R was positively shifted in injured and non-injured neurons. TTX-S current densities were not affected by SNI, while the rate of recovery from inactivation was accelerated in injured neurons. Our results describe altered neuronal electrogenesis following SNI that is likely induced by a complex regulation of VGSCs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: Workers with persistent disabilities after orthopaedic trauma may need occupational rehabilitation. Despite various risk profiles for non-return-to-work (non-RTW), there is no available predictive model. Moreover, injured workers may have various origins (immigrant workers), which may either affect their return to work or their eligibility for research purposes. The aim of this study was to develop and validate a predictive model that estimates the likelihood of non-RTW after occupational rehabilitation using predictors which do not rely on the worker's background. METHODS: Prospective cohort study (3177 participants, native (51%) and immigrant workers (49%)) with two samples: a) Development sample with patients from 2004 to 2007 with Full and Reduced Models, b) External validation of the Reduced Model with patients from 2008 to March 2010. We collected patients' data and biopsychosocial complexity with an observer rated interview (INTERMED). Non-RTW was assessed two years after discharge from the rehabilitation. Discrimination was assessed by the area under the receiver operating curve (AUC) and calibration was evaluated with a calibration plot. The model was reduced with random forests. RESULTS: At 2 years, the non-RTW status was known for 2462 patients (77.5% of the total sample). The prevalence of non-RTW was 50%. The full model (36 items) and the reduced model (19 items) had acceptable discrimination performance (AUC 0.75, 95% CI 0.72 to 0.78 and 0.74, 95% CI 0.71 to 0.76, respectively) and good calibration. For the validation model, the discrimination performance was acceptable (AUC 0.73; 95% CI 0.70 to 0.77) and calibration was also adequate. CONCLUSIONS: Non-RTW may be predicted with a simple model constructed with variables independent of the patient's education and language fluency. This model is useful for all kinds of trauma in order to adjust for case mix and it is applicable to vulnerable populations like immigrant workers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé En Suisse, les programmes de désaccoutumance au tabac se réfèrent généralement au modèle de préparation au changement de Prochaska et DiClemente (1983), Les patients atteints de maladies somatiques liées au tabagisme comme les pathologies cardiovasculaires ou pulmonaires accèdent facilement à ces programmes, contrairement aux patients présentant une dépendance à des drogues illicites. La prévalence de fumeurs dans cette population est pourtant élevée et les problèmes engendrés par le tabac sont importants, non seulement d'un point de vue individuel mais aussi en terme de santé publique. Il est par conséquent intéressant d'évaluer la motivation concernant la désaccoutumance au tabac de patients toxicomanes entreprenant un sevrage de drogues illicites. Dans cette étude, nous avons évalué les stades de préparation au changement concernant la dépendance au tabac chez 100 patients toxicomanes hospitalisés sur un mode volontaire dans le cadre d'un programme de sevrage à des drogues illégales. L'évaluation s'est faite à l'aide d'un auto-questionnaire dont les résultats indiquent qu'une minorité de patients sont décidés à interrompre la consommation de tabac. En effet, seul 15% des patients se trouvaient aux stades de contemplation ou de décision. De plus, 93% des sujets considéraient l'arrêt du tabac comme difficile ou très difficile. Ces données montrent qu'il existe un décalage important entre la motivation relative au sevrage de drogues illégales et la motivation liées à l'arrêt du tabac. En effet, malgré leur motivation élevée pour se sevrer de drogues illicites, la proportion de patients restant au stade de précontemplation concernant la désaccoutumance au tabac reste élevée. Diverses hypothèses permettent d'expliquer ces résultats, notamment la perception que la désaccoutumance au tabac est plus difficile à réaliser que le sevrage de substances illicites. Abstract Nicotine cessation programmes in Switzerland, which are commonly based on the stage of change model of Prochaska and DiClemente (1983), are rarely offered to patients with illicit drug dependence. This stands in contrast to the high smoking rates and the heavy burden of tobacco-related problems in these patients. The stage of change was therefore assessed by self-administered questionnaire in 100 inpatients attending an illegal drug withdrawal programme. Only 15% of the patients were in the contemplation or decision stage. 93% considered smoking cessation to be difficult or very difficult. These data show a discrepancy between the motivation to change illegal drug consumption habits and the motivation for smoking cessation. The high pro-portion of patients remaining in the precontemplation stage for smoking cessation, in spite of their motivation for illicit drug detoxification, may be due to the perception that cessation of smoking is more difficult than illicit drug abuse cessation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The non-obese diabetic (NOD) mouse is a model for the study of insulin-dependent diabetes mellitus (IDDM). Recently transgenic NOD mice have been derived (NOD-E) that express the major histocompatibility complex (MHC) class II I-E molecule. NOD-E do not become diabetic and show negligible pancreatic insulitis. The possibility pertained that NOD-E mice are protected from disease by a process of T-cell deletion or anergy. This paper describes our attempts to discover whether this was so, by comparing NOD and NOD-E mouse T-cell receptor V beta usage. Splenocytes and lymph node cells were therefore tested for their ability to proliferate in response to monoclonal anti-V beta antibodies. We were unable to show any consistent differences between NOD and NOD-E responses to the panel of antibodies used. Previously proposed V beta were shown to be unlikely candidates for deletion or anergy. T cells present at low frequency (V beta 5+) in both NOD and NOD-E mice were shown to be as capable of expansion in response to antigenic stimulation as were more frequently expressed V beta. Our data therefore do not support deletion or anergy as mechanisms which could account for the observed disease protection in NOD-E mice.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Järvholm and Co-workers (2009) proposed a conceptual model for research on working life. Models are powerful communication and decision tools. This model is strongly unidirectional and does not cover the mentioned interactions in the arguments.With help of a genealogy of work and of health it is shown that work and health are interactive and have to be analysed on the background of society.Key words: research model, work, health, occupational health, society, interaction, discussion paperRemodellierung der von Järvholm et al. (2009) vorgeschlagenen Forschungsperspektiven in Arbeit und GesundheitJärvholm und Kollegen stellten 2009 ein konzeptionelles Modell für die Forschung im Bereich Arbeit und Gesundheit vor. Modelle stellen kraftvolle Kommunikations- und Entscheidungsinstrumente dar. Die Einflussfaktoren im Modell verlaufen jedoch nur in einer Richtung und bilden die interaktiven Argumente im Text nicht ab. Mit Hilfe einer Genealogie der Begriffe Arbeit und Gesundheit wird aufgezeigt, dass Arbeit und Gesundheit sich gegenseitig beeinflussen und nur vor dem Hintergrund der jeweiligen gesellschaftlichen Kontextfaktoren zu analysieren sind.Introduction : After an interesting introduction about the objectives of research on working life, Järvholm and Co-workers (2009) manage to define a conceptual model for working life research out of a small survey of Occupational Safety and Health (OSH) definitions. The strong point of their model is the entity 'working life' including personal development, as well as career paths and aging. Yet, the model Järvholm et al. (2009) propose is strangely unidirectional; the arrows point from the population to working life, from there to health and to disease, as well as to productivity and economic resources. The diagram only shows one feed-back loop: between economic resources and health. We all know that having a chronic disease condition influences work and working capacity. Economic resources have a strong influence on work, too. Having personal economic resources will influence the kind of work someone accepts and facilitate access to continuous professional education. A third observation is that society is not present in the model, although this is less the case in the arguments. In fact, there is an incomprehensible gap between the arguments brought forth by Järvholm and co-workers and their reductionist model.Switzerland has a very low coverage of occupational health specialists. Switzerland is a long way from fulfilling the WHO's recommendations on workers' access to OSH services as described in its Global plan of action. The Institute for Work and Health (IST) in Lausanne is the only organisation which covers the major domains of OSH research that are occupational medicine, occupational hygiene, ergonomic and psychosocial research. As the country's sole occupational health institution we are forced to reflect the objectives of working life research so as not to waste the scare resources available.I will set out below a much shortened genealogy of work and of health, with the aim of extending Järvholm et al's (2009) analyses on the perspectives of working life research in two directions. Firstly towards the interactive nature of work and health and the integration of society, and secondly towards the question of what working life means or where working life could be situated.Work, as we know it today - paid work regulated by a contract as the basis for sustaining life and as a base for social rights - was born in modern era. Therefore I will start my genealogy in the pre-modern era, focus on the important changes that occurred during industrial revolution and the modern era and end in 2010 taking into account the enormous transformations of the past 20-30 years. I will put aside some 810 years of advances in science and technology that have expanded the world's limits and human understanding, and restrict my genealogy to work and to health/body implicating also the societal realm. [Author]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Purpose: We evaluated the potential for hybrid PET/MRI devices to provide integrated metabolic, functional and anatomic characterisation of patients with suspected coronary artery disease.Methods and Materials: Ten patients (5 with suspected hibernating myocardium and 5 healthy volunteers) performed an imaging study using a hybrid PET/MRI (Philips). Viability assessed by 18F-FDG was performed in diseased patients along with MRI anatomic and functional study and reassessed within 30 minutes by conventional PET/CT. Non-contrast right coronary artery (RCA) targeted and whole heart 3D coronary angio-MRI using ECG-gating and respiratory navigator was performed in healthy volunteers with reconstruction performed using MPR and volume rendering. The extent of metabolic defect (MD) using PET/MRI and PET/CT was compared in patients and coronary territories (LAD, CX, RCA). Assessability of coronary lumen was judged as good, sub-optimal or non-assessable using a 16-segments coronary model.Results: Metabolic assessment was successful in all patients with MD being 19.2% vs 18.3% using PET/MRI and PET/CT, respectively (P=ns). The MD was 10.2%, 6 %, and 3 % vs 9.3%, 6 % and 3 % for LAD, CX and RCA territories, respectively (P= ns). Coronary angio-MRI was successful in all volunteers with 66 coronary segments visualised overall. The RCA was fully visualised in 4/5 volunteers and the left coronary arteries in 4/5 volunteers. Assessability in visualised segments was good, sub-optimal and non-assessable in 88 %, 2 % and 10 %, respectively.Conclusion: Hybrid PET/MRI devices may enable metabolic evaluation comparable to PET/CT with additional value owing to accurate functional and anatomical information including coronary assessment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The motivation for this research initiated from the abrupt rise and fall of minicomputers which were initially used both for industrial automation and business applications due to their significantly lower cost than their predecessors, the mainframes. Later industrial automation developed its own vertically integrated hardware and software to address the application needs of uninterrupted operations, real-time control and resilience to harsh environmental conditions. This has led to the creation of an independent industry, namely industrial automation used in PLC, DCS, SCADA and robot control systems. This industry employs today over 200'000 people in a profitable slow clockspeed context in contrast to the two mainstream computing industries of information technology (IT) focused on business applications and telecommunications focused on communications networks and hand-held devices. Already in 1990s it was foreseen that IT and communication would merge into one Information and communication industry (ICT). The fundamental question of the thesis is: Could industrial automation leverage a common technology platform with the newly formed ICT industry? Computer systems dominated by complex instruction set computers (CISC) were challenged during 1990s with higher performance reduced instruction set computers (RISC). RISC started to evolve parallel to the constant advancement of Moore's law. These developments created the high performance and low energy consumption System-on-Chip architecture (SoC). Unlike to the CISC processors RISC processor architecture is a separate industry from the RISC chip manufacturing industry. It also has several hardware independent software platforms consisting of integrated operating system, development environment, user interface and application market which enables customers to have more choices due to hardware independent real time capable software applications. An architecture disruption merged and the smartphone and tablet market were formed with new rules and new key players in the ICT industry. Today there are more RISC computer systems running Linux (or other Unix variants) than any other computer system. The astonishing rise of SoC based technologies and related software platforms in smartphones created in unit terms the largest installed base ever seen in the history of computers and is now being further extended by tablets. An underlying additional element of this transition is the increasing role of open source technologies both in software and hardware. This has driven the microprocessor based personal computer industry with few dominating closed operating system platforms into a steep decline. A significant factor in this process has been the separation of processor architecture and processor chip production and operating systems and application development platforms merger into integrated software platforms with proprietary application markets. Furthermore the pay-by-click marketing has changed the way applications development is compensated: Three essays on major trends in a slow clockspeed industry: The case of industrial automation 2014 freeware, ad based or licensed - all at a lower price and used by a wider customer base than ever before. Moreover, the concept of software maintenance contract is very remote in the app world. However, as a slow clockspeed industry, industrial automation has remained intact during the disruptions based on SoC and related software platforms in the ICT industries. Industrial automation incumbents continue to supply systems based on vertically integrated systems consisting of proprietary software and proprietary mainly microprocessor based hardware. They enjoy admirable profitability levels on a very narrow customer base due to strong technology-enabled customer lock-in and customers' high risk leverage as their production is dependent on fault-free operation of the industrial automation systems. When will this balance of power be disrupted? The thesis suggests how industrial automation could join the mainstream ICT industry and create an information, communication and automation (ICAT) industry. Lately the Internet of Things (loT) and weightless networks, a new standard leveraging frequency channels earlier occupied by TV broadcasting, have gradually started to change the rigid world of Machine to Machine (M2M) interaction. It is foreseeable that enough momentum will be created that the industrial automation market will in due course face an architecture disruption empowered by these new trends. This thesis examines the current state of industrial automation subject to the competition between the incumbents firstly through a research on cost competitiveness efforts in captive outsourcing of engineering, research and development and secondly researching process re- engineering in the case of complex system global software support. Thirdly we investigate the industry actors', namely customers, incumbents and newcomers, views on the future direction of industrial automation and conclude with our assessments of the possible routes industrial automation could advance taking into account the looming rise of the Internet of Things (loT) and weightless networks. Industrial automation is an industry dominated by a handful of global players each of them focusing on maintaining their own proprietary solutions. The rise of de facto standards like IBM PC, Unix and Linux and SoC leveraged by IBM, Compaq, Dell, HP, ARM, Apple, Google, Samsung and others have created new markets of personal computers, smartphone and tablets and will eventually also impact industrial automation through game changing commoditization and related control point and business model changes. This trend will inevitably continue, but the transition to a commoditized industrial automation will not happen in the near future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIVES: Specifically we aim to demonstrate that the results of our earlier safety data hold true in this much larger multi-national and multi-ethnical population. BACKGROUND: We sought to re-evaluate the frequency, manifestations, and severity of acute adverse reactions associated with administration of several gadolinium- based contrast agents during routine CMR on a European level. METHODS: Multi-centre, multi-national, and multi-ethnical registry with consecutive enrolment of patients in 57 European centres. RESULTS: During the current observation 37,788 doses of Gadolinium based contrast agent were administered to 37,788 patients. The mean dose was 24.7 ml (range 5-80 ml), which is equivalent to 0.123 mmol/kg (range 0.01 - 0.3 mmol/kg). Forty-five acute adverse reactions due to contrast administration occurred (0.12%). Most reactions were classified as mild (43 of 45) according to the American College of Radiology definition. The most frequent complaints following contrast administration were rashes and hives (15 of 45), followed by nausea (10 of 45) and flushes (10 of 45). The event rate ranged from 0.05% (linear non-ionic agent gadodiamide) to 0.42% (linear ionic agent gadobenate dimeglumine). Interestingly, we also found different event rates between the three main indications for CMR ranging from 0.05% (risk stratification in suspected CAD) to 0.22% (viability in known CAD). CONCLUSIONS: The current data indicate that the results of the earlier safety data hold true in this much larger multi-national and multi-ethnical population. Thus, the "off-label" use of Gadolinium based contrast in cardiovascular MR should be regarded as safe concerning the frequency, manifestation and severity of acute events.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Studies evaluating the mechanical behavior of the trabecular microstructure play an important role in our understanding of pathologies such as osteoporosis, and in increasing our understanding of bone fracture and bone adaptation. Understanding of such behavior in bone is important for predicting and providing early treatment of fractures. The objective of this study is to present a numerical model for studying the initiation and accumulation of trabecular bone microdamage in both the pre- and post-yield regions. A sub-region of human vertebral trabecular bone was analyzed using a uniformly loaded anatomically accurate microstructural three-dimensional finite element model. The evolution of trabecular bone microdamage was governed using a non-linear, modulus reduction, perfect damage approach derived from a generalized plasticity stress-strain law. The model introduced in this paper establishes a history of microdamage evolution in both the pre- and post-yield regions

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Background: Bronchopulmonary dysplasia (BPD) remains the leading cause of chronic pulmonary morbidity among preterm neonates. However, the exact pathophysiology is still unknown. Here we present the first results from a new model inteAbstracts, 25th International Workshop on Surfactant Replacement 400 Neonatology 2010;97:395-400 grating the most common risk factors for BPD (lung immaturity, inflammation, mechanical ventilation (MV), oxygen), which allows long-term outcome evaluation due to a non-traumatic intubation procedure. Objectives: To test the feasibility of a new rat model by investigating effects of MV, inflammation and oxygen applied to immature lungs after a ventilation-free interval. Methods: On day 4, 5, or 6 newborn rats were given an intraperitoneal injection of lipopolysaccharides to induce a systemic inflammation. 24 h later they were anesthetized, endotracheally intubated and ventilated for 8 h with 60% oxygen. After weaning of anesthesia and MV the newborn rats were extubated and returned to their mothers. Two days later they were killed and outcome measurements were performed (histology, quantitative RT-PCR) and compared to animals investigated directly after MV. Results: Directly after MV, histological signs of ventilator-induced lung injury were found. After 48 h, the first signs of early BPD were seen with delayed alveolar formation. Expression of inflammatory genes was only transiently increased. After 48 h genes involved in alveolarization, such as matrix metalloproteinase-9 and tropoelastin, showed a significant change of their expression. Conclusion: For the first time we can evaluate in a newborn rat model the effects of MV after a ventilation-free interval. This allows discrimination between immediate response genes and delayed changes of expression of more structural genes involved in alveolarization.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Natural environments are constantly challenged by the release of hydrophobic organic contaminants, which represent a threat for both the ecosystem and human health. Despite a substantial degradation by naturally occurring micro-organisms, a non negligible fraction of these pollutants tend to persist in soil and sediments due to their reduced accessibility to microbial degraders. This lack of 'bioavailability' is acknowledged as a key parameter for the natural and stimulated clean-up (bioremediation) of contaminated sites. We developed a bacterial bioreporter that responds to the presence of polyaromatic hydrocarbons (PAHs) by the production of the green fluorescent protein (GFP), based on the PAH-degrading bacterium Burkholderia sartisoli. We showed in this study that the bacterial biosensor B. sartisoli strain RP037 was faithfully reporting the degradation of naphthalene and phenanthrene (two PAHs of low molecular weight) via the production of GFP. What is more, the magnitude of GFP induction was influenced by change in the PAH flux triggered by a variety of physico-chemical parameters, such as the contact surface between the pollutant and the aqueous suspension. Further experiments permitted to test the influence of dissolved organic matter, which is an important component of natural habitats and can interact with organic pollutants. In addition, we tested the influence of two types of biosurfactants (tensio-active agents produced by living organisms) on phenanthrene's degradation by RP037. Interestingly, the surfactant's effects on the biodegradation rate appeared to depend on the type of biosurfactant and probably on the type of bacterial strain. Finally, we tagged B. sartisoli strain RP037 with a constitutively expressed mCherry fluorescent protein. The presence of mCherry allowed us to visualize the bacteria in complex samples even when GFP production was not induced. The new strain RP037-mChe embedded in a gel patch was used to detect PAH fluxes from a point source, such as a non-aqueous liquid or particles of contaminated soil. In parallel, we also developed and tested a so-called multiwell bacterial biosensor platform, which permitted the simultaneous use of four different reporter strains for the detection of major crude oil components (e.g., saturated hydrocarbons, mono- and polyaromatics) in aqueous samples. We specifically constructed the strain B. sartisoli RP007 (pPROBE-phn-luxAB) for the detection of naphthalene and phenanthrene. It was equipped with a reporter plasmid similar to the one in strain RP037, except that the gfp gene was replaced by the genes luxAB, which encoded the bacterial luciferase. The strain was implemented in the biosensor platform and detected an equivalent naphthalene concentration in oil spilled-sea water. We also cloned the gene for the transcriptional activator AlkS and the operator/promoter region of the operon alkSB1GHJ from the alkane-degrader bacterium Alcanivorax borkumensis strain SK2 in order to construct a new bacterial biosensor with higher sensitivity towards long-chain alkanes. However, the resulting strain showed no increased light emission in presence of tetradecane (C14), while it still efficiently reported low concentrations of octane (C8). RÉSUMÉ : Les écosystèmes naturels sont constamment exposés à nombre de contaminants organiques hydrophobes (COHs) d'origine industrielle, agricole ou même naturelle. Les COHs menacent à la fois l'environnement, le bien-être des espèces animales et végétales et la santé humaine, mais ils peuvent être dégradés par des micro-organismes tels que les bactéries et les champignons, qui peuvent être capables des les transformer en produits inoffensifs comme le gaz carbonique et l'eau. La biodégradation des COHs est cependant fréquemment limitée par leur pauvre disponibilité envers les organismes qui les dégradent. Ainsi, bien que la biodégradation opère partiellement, les COHs persistent dans l'environnement à de faibles concentrations qui potentiellement peuvent encore causer des effets toxiques chroniques. Puisque la plupart des COHs peuvent être métabolisés par l'activité microbienne, leur persistance a généralement pour origine des contraintes physico-chimiques plutôt que biologiques. Par exemple, leur solubilité dans l'eau très limitée réduit leur prise par des consommateurs potentiels. De plus, l'adsorption à la matière organique et la séquestration dans les micropores du sol participent à réduire leur disponibilité envers les microbes. Les processus de biodisponibilité, c'est-à-dire les processus qui gouvernent la dissolution et la prise de polluants par les organismes vivants, sont généralement perçus comme des paramètres clés pour la dépollution (bioremédiation) naturelle et stimulée des sites contaminés. Les hydrocarbures aromatiques polycycliques (HAPs) sont un modèle de COH produits par les activités aussi bien humaines que naturelles, et listés comme des contaminants chroniques de l'air, des sols et des sédiments. Ils peuvent être dégradés par un vaste nombre d'espèces bactériennes mais leur taux de biodégradation est souvent limité par les contraintes mentionnées ci-dessus. Afin de comprendre les processus de biodisponibilité pour les cellules bactériennes, nous avons décidé d'utiliser les bactéries elles-mêmes pour détecter et rapporter les flux de COH. Ceci a été réalisé par l'application d'une stratégie de conception visant à produire des bactéries `biocapteurs-rapporteurs', qui littéralement s'allument lorsqu'elles détectent un composé cible pour lequel elles ont été conçues. En premier lieu, nous nous sommes concentrés sur Burkholderia sartisoli (souche RP007), une bactérie isolée du sol et consommatrice de HAP .Cette souche a servi de base à la construction d'un circuit génétique permettant la formation de la protéine autofluorescente GFP dès que les cellules détectent le naphtalène ou le phénanthrène, deux HAP de faible masse moléculaire. En effet, nous avons pu montrer que la bactérie obtenue, la souche RP037 de B. sartisoli, produit une fluorescence GFP grandissante lors d'une exposition en culture liquide à du phénanthrène sous forme cristalline (0.5 mg par ml de milieu de culture). Nous avons découvert que pour une induction optimale il était nécessaire de fournir aux cellules une source additionnelle de carbone sous la forme d'acétate, ou sinon seul un nombre limité de cellules deviennent induites. Malgré cela, le phénanthrène a induit une réponse très hétérogène au sein de la population de cellules, avec quelques cellules pauvrement induites tandis que d'autres l'étaient très fortement. La raison de cette hétérogénéité extrême, même dans des cultures liquides mélangées, reste pour le moment incertaine. Plus important, nous avons pu montrer que l'amplitude de l'induction de GFP dépendait de paramètres physiques affectant le flux de phénanthrène aux cellules, tels que : la surface de contact entre le phénanthrène solide et la phase aqueuse ; l'ajout de surfactant ; le scellement de phénanthrène à l'intérieur de billes de polymères (Model Polymer Release System) ; la dissolution du phénanthrène dans un fluide gras immiscible à l'eau. Nous en avons conclu que la souche RP037 détecte convenablement des flux de phénantrène et nous avons proposé une relation entre le transfert de masse de phénanthrène et la production de GFP. Nous avons par la suite utilisé la souche afin d'examiner l'effet de plusieurs paramètres chimiques connus dans la littérature pour influencer la biodisponibilité des HAP. Premièrement, les acides humiques. Quelques rapports font état que la disponibilité des HAP pourrait être augmentée par la présence de matière organique dissoute. Nous avons mesuré l'induction de GFP comme fonction de l'exposition des cellules RP037 au phénanthrène ou au naphtalène en présence ou absence d'acides humiques dans la culture. Nous avons testé des concentrations d'acides humiques de 0.1 et 10 mg/L, tandis que le phénanthrène était ajouté via l'heptamethylnonane (HMN), un liquide non aqueux, ce qui au préalable avait produit le plus haut flux constant de phénanthrène aux cellules. De plus, nous avons utilisé des tests en phase gazeuse avec des concentrations d'acides humiques de 0.1, 10 et 1000 mg/L mais avec du naphtalène. Contrairement à ce que décrit la littérature, nos résultats ont indiqué que dans ces conditions l'expression de GFP en fonction de l'exposition au phénanthrène dans des cultures en croissance de la souche RP037 n'était pas modifiée par la présence d'acides humiques. D'un autre côté, le test en phase gazeuse avec du naphtalène a montré que 1000 mg/L d'acides humiques abaissent légèrement mais significativement la production de GFP dans les cellules de RP037. Nous avons conclu qu'il n'y a pas d'effet général des acides humiques sur la disponibilité des HAP pour les bactéries. Par la suite, nous nous sommes demandé si des biosurfactants modifieraient la disponibilité du phénanthrène pour les bactéries. Les surfactants sont souvent décrits dans la littérature comme des moyens d'accroître la biodisponibilité des COHs. Les surfactants sont des agents tensio-actifs qui augmentent la solubilité apparente de COH en les dissolvant à l'intérieur de micelles. Nous avons ainsi testé si des biosurfactants (des surfactants produits par des organismes vivants) peuvent être utilisé pour augmenter la biodisponibilité du phénanthrène pour la souche B. sartisoli RP037. Premièrement, nous avons tenté d'obtenir des biosurfactants produits par une autre bactérie vivant en co-culture avec les biocapteurs bactériens. Deuxièmement, nous avons utilisé des biosurfactants purifiés. La co-cultivation en présence de la bactérie productrice de lipopeptide Pseudomonas putida souche PCL1445 a augmenté l'expression de GFP induite par le phénanthrène chez B. sartisoli en comparaison des cultures simples, mais cet effet n'était pas significativement différent lorsque la souche RP037 était co-cultivée avec un mutant de P. putida ne produisant pas de lipopeptides. L'ajout de lipopeptides partiellement purifiés dans la culture de RP037 a résulté en une réduction de la tension de surface, mais n'a pas provoqué de changement dans l'expression de GFP. D'un autre côté, l'ajout d'une solution commerciale de rhamnolipides (un autre type de biosurfactants produits par Pseudomonas spp.) a facilité la dégradation du phénanthrène par la souche RP037 et induit une expression de GFP élevée dans une plus grande proportion de cellules. Nous avons ainsi conclu que les effets des biosurfactants sont mesurables à l'aide de la souche biocapteur, mais que ceux-ci sont dépendants du type de surfactant utilisé conjointement avec le phénanthrène. La question suivante que nous avons abordée était si les tests utilisant des biocapteurs peuvent être améliorés de manière à ce que les flux de HAP provenant de matériel contaminé soient détectés. Les tests en milieu liquide avec des échantillons de sol ne fournissant pas de mesures, et sachant que les concentrations de HAP dans l'eau sont en général extrêmement basses, nous avons conçu des tests de diffusion dans lesquels nous pouvons étudier l'induction par les HAPs en fonction de la distance aux cellules. Le biocapteur bactérien B. sartisoli souche RP037 a été marqué avec une seconde protéine fluorescente (mCherry), qui est constitutivement exprimée dans les cellules et leur confère une fluorescence rouge/rose. La souche résultante RP037-mChe témoigne d'une fluorescence rouge constitutive mais n'induit la fluorescence verte qu'en présence de naphtalène ou de phénanthrène. La présence d'un marqueur fluorescent constitutif nous permet de visualiser les biocapteurs bactériens plus facilement parmi des particules de sol. Un test de diffusion a été conçu en préparant un gel fait d'une suspension de cellules mélangées à 0.5 % d'agarose. Des bandes de gel de dimensions 0.5 x 2 cm x 1 mm ont été montées dans des chambres d'incubation et exposées à des sources de HAP (soit dissouts dans du HMN ou en tant que matériel solide, puis appliqués à une extrémité de la bande). En utilisant ce montage expérimental, le naphtalène ou le phénanthrène (dissouts dans du HMN à une concentration de 2.5 µg/µl) ont induit un gradient d'intensité de fluorescence GFP après 24 heures d'incubation, tandis que la fluorescence mCherry demeurait comparable. Un sol contaminé par des HAPs (provenant d'un ancien site de production de gaz) a induit la production de GFP à un niveau comparable à celui du naphtalène. Des biocapteurs bactériens individuels ont également détecté un flux de phénanthrène dans un gel contenant des particules de sol amendées avec 1 et 10 mg/g de phénanthrène. Ceci a montré que le test de diffusion peut être utilisé pour mesurer des flux de HAP provenant de matériel contaminé. D'un autre côté, la sensibilité est encore très basse pour plusieurs sols contaminés, et l'autofluorescence de certains échantillons rend difficile l'identification de la réponse de la GFP chez les cellules. Pour terminer, un des points majeurs de ce travail a été la production et la validation d'une plateforme multi-puits de biocapteurs bactériens, qui a permis l'emploi simultané de plusieurs souches différentes de biocapteurs pour la détection des constituants principaux du pétrole. Pour cela nous avons choisi les alcanes linéaires, les composés mono-aromatiques, les biphényls et les composés poly-aromatiques. De plus, nous avons utilisé un capteur pour la génotoxicité afin de détecter la `toxicité globale' dans des échantillons aqueux. Plusieurs efforts d'ingénierie ont été investis de manière à compléter ce set. En premier lieu, chaque souche a été équipée avec soit gfp, soit luxAB en tant que signal rapporteur. Deuxièmement, puisqu'aucune souche de biocapteur n'était disponible pour les HAP ou pour les alcanes à longues chaînes, nous avons spécifiquement construit deux nouveaux biocapteurs. L'un d'eux est également basé sur B. sartisoli RP007, que nous avons équipé avec le plasmide pPROBE-phn-luxAB pour la détection du naphtalène et du phénanthrène mais avec production de luciférase bactérienne. Un autre est un nouveau biocapteur bactérien pour les alcanes. Bien que nous possédions une souche Escherichia coli DHS α (pGEc74, pJAMA7) détectant les alcanes courts de manière satisfaisante, la présence des alcanes à longues chaînes n'était pas rapportée efficacement. Nous avons cloné le gène de l'activateur transcriptionnel A1kS ainsi que la région opérateur/promoteur de l'opéron alkSB1GHJ chez la bactérie dégradant les alcanes Alcanivorax borkumensis souche SK2, afin de construire un nouveau biocapteur bactérien bénéficiant d'une sensibilité accrue envers les alcanes à longues chaînes. Cependant, la souche résultante E. coli DHSα (pAlk3} n'a pas montré d'émission de lumière augmentée en présence de tétradécane (C14), tandis qu'elle rapportait toujours efficacement de basses concentrations d'octane (C8). De manière surprenante, l'utilisation de A. borkumensis en tant que souche hôte pour le nouveau plasmide rapporteur basé sur la GFP a totalement supprimé la sensibilité pour l'octane, tandis que la détection de tétradécane n'était pas accrue. Cet aspect devra être résolu dans de futurs travaux. Pour calibrer la plateforme de biocapteurs, nous avons simulé une fuite de pétrole en mer dans une bouteille en verre ouverte de 5L contenant 2L d'eau de mer contaminée avec 20 ml (1%) de pétrole brut. La phase aqueuse a été échantillonée à intervalles réguliers après la fuite durant une période allant jusqu'à une semaine tandis que les principaux contaminants pétroliers étaient mesurés via les biocapteurs. L'émission de bioluminescence a été mesurée de manière à déterminer la réponse des biocapteurs et une calibration intégrée faite avec des inducteurs types a servi à calculer des concentrations d'équivalents inducteurs dans l'échantillon. E. coli a été utilisée en tant que souche hôte pour la plupart des spécificités des biocapteurs, à l'exception de la détection du naphtalène et du phénanthrène pour lesquels nous avons utilisé B. sartisoli. Cette souche, cependant, peut être employée plus ou moins selon la même procédure. Il est intéressant de noter que le pétrole répandu a produit une apparition séquentielle de composés dissouts dans la phase aqueuse, ceux-ci .étant détectables par les biocapteurs. Ce profil contenait d'abord les alcanes à courtes chaînes et les BTEX (c'est-à dire benzène, toluène, éthylbenzène et xylènes), apparaissant entre des minutes et des heures après que le pétrole a été versé. Leurs concentrations aqueuses ont par la suite fortement décru dans l'eau échantillonnée après 24 heures, à cause de la volatilisation ou de la biodégradation. Après quelques jours d'incubation, ces composés sont devenus indétectables. Les HAPs, en revanche, sont apparus plus tard que les alcanes et les BTEX, et leur concentration a augmenté de pair avec un temps d'incubation prolongé. Aucun signal significatif n'a été mis en évidence avec le biocapteur pour le biphényl ou pour la génotoxicité. Ceci démontre l'utilité de ces biocapteurs, spécifiquement pour la détection des composés pétroliers, comprenant les alcanes à courtes chaînes, les BTEX et les HAPs légers.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

It is generally accepted that most plant populations are locally adapted. Yet, understanding how environmental forces give rise to adaptive genetic variation is a challenge in conservation genetics and crucial to the preservation of species under rapidly changing climatic conditions. Environmental variation, phylogeographic history, and population demographic processes all contribute to spatially structured genetic variation, however few current models attempt to separate these confounding effects. To illustrate the benefits of using a spatially-explicit model for identifying potentially adaptive loci, we compared outlier locus detection methods with a recently-developed landscape genetic approach. We analyzed 157 loci from samples of the alpine herb Gentiana nivalis collected across the European Alps. Principle coordinates of neighbor matrices (PCNM), eigenvectors that quantify multi-scale spatial variation present in a data set, were incorporated into a landscape genetic approach relating AFLP frequencies with 23 environmental variables. Four major findings emerged. 1) Fifteen loci were significantly correlated with at least one predictor variable (R (adj) (2) > 0.5). 2) Models including PCNM variables identified eight more potentially adaptive loci than models run without spatial variables. 3) When compared to outlier detection methods, the landscape genetic approach detected four of the same loci plus 11 additional loci. 4) Temperature, precipitation, and solar radiation were the three major environmental factors driving potentially adaptive genetic variation in G. nivalis. Techniques presented in this paper offer an efficient method for identifying potentially adaptive genetic variation and associated environmental forces of selection, providing an important step forward for the conservation of non-model species under global change.