932 resultados para STEADY-STATE METHOD
Resumo:
The interaction of the cationic meso-tetrakis 4-N-methylpyridyl porphyrin (TMPyP) with large unilamellar vesicles (LUVs) was investigated in the present study. LUVs were formed by mixtures of the zwitterionic 1,2-dipalmitoyl-sn-glycero-phosphatidylcholine (DPPC) and anionic 1,2-dipalmitoyl-sn-glycero-3-phosphoglycerol (DPPG) phospholipids, at different DPPG molar percentages. All investigations were carried out above (50 degrees C) and below (25 degrees C) the main phase transition temperature of the LUVs (similar to 41 degrees C). The binding constant values, K-b, estimated from the time-resolved fluorescence study, showed a significant increase of the porphyrin affinity at higher mol% DPPG. This affinity is markedly increased when the LUVs are in the liquid crystalline state. For both situations, the increase of the K-b value was also followed by a higher porphyrin fraction bound to the LUVs. The displacement of the vesicle-bound porphyrins toward the aqueous medium, upon titration with the salt potassium chloride (KCl), was also studied. Altogether, our steady-state and frequency-domain fluorescence quenching data results indicate that the TMPyP is preferentially located at the LUVs Stern layer. This is supported by the zeta potential studies, where a partial neutralization of the LUVs surface charge, upon porphyrin titration, was observed. Dynamic light scattering (DLS) results showed that, for some phospholipid systems, this partial neutralization leads to the LUVs flocculation. (C) 2012 Elsevier Inc. All rights reserved.
Resumo:
The aims were both to determine lactate and ventilatory threshold during incremental resistance training and to analyze the acute cardiorespiratory and metabolic responses during constant-load resistance exercise at lactate threshold (LT) intensity. Ten healthy men performed 2 protocols on leg press machine. The incremental test was performed to determine the lactate and ventilatory thresholds through an algorithmic adjustment method. After 48 h, a constant-load exercise at LT intensity was executed. The intensity of LT and ventilatory threshold was 27.1 +/- 3.7 and 30.3 +/- 7.9% of 1RM, respectively (P=0.142). During the constant-load resistance exercise, no significant variation was observed between set 9 and set 15 for blood lactate concentration (3.3 +/- 0.9 and 4.1 +/- 1.4 mmol.L-1, respectively. P=0.166) and BORG scale (11.5 +/- 2.9 and 13.0 +/- 3.5, respectively. P=0.783). No significant variation was observed between set 6 and set 15 for minute ventilation (19.4 +/- 4.9 and 22.4 +/- 5.5L. min(-1), respectively. P=0.091) and between S3 and S15 for VO2 (0.77 +/- 0.18 and 0.83 +/- 0.16L. min(-1), respectively. P=1.0). Constant-load resistance exercise at LT intensity corresponds to a steady state of ventilatory, cardio-metabolic parameters and ratings of perceived exertion.
Resumo:
The Carr-Purcell pulse sequence, with low refocusing flip angle, produces echoes midway between refocusing pulses that decay to a minimum value dependent on T*(2). When the refocusing flip angle was pi/2 (CP90) and tau > T*(2), the signal after the minimum value, increased to reach a steady-state free precession regime (SSFP), composed of a free induction decay signal after each pulse and an echo, before the next pulse. When tau < T*(2), the signal increased from the minimum value to the steady-state regime with a time constant (T*) = 2T(1)T(2)/(T-1 + T-2). identical to the time constant observed in the SSFP sequence, known as the continuous wave free precession (CWFP). The steady-state amplitude obtained with M-cp90 = M0T2/(T-1+T-2) was identical to CWFP. Therefore, this sequence was named CP-CWFP because it is a Carr-Purcell sequence that produces results similar to the CWFP. However, CP-CWFP is a better sequence for measuring the longitudinal and transverse relaxation times in single scan, when the sample exhibits T-1 similar to T-2. Therefore, this sequence can be a useful method in time domain NMR and can be widely used in the agriculture, food and petrochemical industries because those samples tend to have similar relaxation times in low magnetic fields. (C) 2011 Elsevier Inc. All rights reserved.
Resumo:
Abstract: Background: The alkaline version of the single-cell gel (comet) assay is a useful method for quantifying DNA damage. Although some studies on chronic and acute effects of exercise on DNA damage measured by the comet assay have been performed, it is unknown if an aerobic training protocol with intensity, volume, and load clearly defined will improve performance without leading to peripheral blood cell DNA damage. In addition, the effects of overtraining on DNA damage are unknown. Therefore, this study aimed to examine the effects of aerobic training and overtraining on DNA damage in peripheral blood and skeletal muscle cells in Swiss mice. To examine possible changes in these parameters with oxidative stress, we measured reduced glutathione (GSH) levels in total blood, and GSH levels and lipid peroxidation in muscle samples. Results: Performance evaluations (i.e., incremental load and exhaustive tests) showed significant intra and inter-group differences. The overtrained (OTR) group showed a significant increase in the percentage of DNA in the tail compared with the control (C) and trained (TR) groups. GSH levels were significantly lower in the OTR group than in the C and TR groups. The OTR group had significantly higher lipid peroxidation levels compared with the C and TR groups. Conclusions Aerobic and anaerobic performance parameters can be improved in training at maximal lactate steady state during 8 weeks without leading to DNA damage in peripheral blood and skeletal muscle cells or to oxidative stress in skeletal muscle cells. However, overtraining induced by downhill running training sessions is associated with DNA damage in peripheral blood and skeletal muscle cells, and with oxidative stress in skeletal muscle cells and total blood.
Resumo:
Actually, transition from positive to negative plasma current and quasi-steady-state alternated current (AC) operation have been achieved experimentally without loss of ionization. The large transition times suggest the use of MHD equilibrium to model the intermediate magnetic field configurations for corresponding current density reversals. In the present work we show, by means of Maxwell equations, that the most robust equilibrium for any axisymmetric configuration with reversed current density requires the existence of several nonested families of magnetic surfaces inside the plasma. We also show that the currents inside the nonested families satisfy additive rules restricting the geometry and sizes of the axisymmetric magnetic islands; this is done without restricting the equilibrium through arbitrary functions. Finally, we introduce a local successive approximations method to describe the equilibrium about an arbitrary reversed current density minimum and, consequently, the transition between different nonested topologies is understood in terms of the eccentricity of the toroidal current density level sets.
Resumo:
Small scale fluid flow systems have been studied for various applications, such as chemical reagent dosages and cooling devices of compact electronic components. This work proposes to present the complete cycle development of an optimized heat sink designed by using Topology Optimization Method (TOM) for best performance, including minimization of pressure drop in fluid flow and maximization of heat dissipation effects, aiming small scale applications. The TOM is applied to a domain, to obtain an optimized channel topology, according to a given multi-objective function that combines pressure drop minimization and heat transfer maximization. Stokes flow hypothesis is adopted. Moreover, both conduction and forced convection effects are included in the steady-state heat transfer model. The topology optimization procedure combines the Finite Element Method (to carry out the physical analysis) with Sequential Linear Programming (as the optimization algorithm). Two-dimensional topology optimization results of channel layouts obtained for a heat sink design are presented as example to illustrate the design methodology. 3D computational simulations and prototype manufacturing have been carried out to validate the proposed design methodology.
Resumo:
The research activity carried out during the PhD course in Electrical Engineering belongs to the branch of electric and electronic measurements. The main subject of the present thesis is a distributed measurement system to be installed in Medium Voltage power networks, as well as the method developed to analyze data acquired by the measurement system itself and to monitor power quality. In chapter 2 the increasing interest towards power quality in electrical systems is illustrated, by reporting the international research activity inherent to the problem and the relevant standards and guidelines emitted. The aspect of the quality of voltage provided by utilities and influenced by customers in the various points of a network came out only in recent years, in particular as a consequence of the energy market liberalization. Usually, the concept of quality of the delivered energy has been associated mostly to its continuity. Hence the reliability was the main characteristic to be ensured for power systems. Nowadays, the number and duration of interruptions are the “quality indicators” commonly perceived by most customers; for this reason, a short section is dedicated also to network reliability and its regulation. In this contest it should be noted that although the measurement system developed during the research activity belongs to the field of power quality evaluation systems, the information registered in real time by its remote stations can be used to improve the system reliability too. Given the vast scenario of power quality degrading phenomena that usually can occur in distribution networks, the study has been focused on electromagnetic transients affecting line voltages. The outcome of such a study has been the design and realization of a distributed measurement system which continuously monitor the phase signals in different points of a network, detect the occurrence of transients superposed to the fundamental steady state component and register the time of occurrence of such events. The data set is finally used to locate the source of the transient disturbance propagating along the network lines. Most of the oscillatory transients affecting line voltages are due to faults occurring in any point of the distribution system and have to be seen before protection equipment intervention. An important conclusion is that the method can improve the monitored network reliability, since the knowledge of the location of a fault allows the energy manager to reduce as much as possible both the area of the network to be disconnected for protection purposes and the time spent by technical staff to recover the abnormal condition and/or the damage. The part of the thesis presenting the results of such a study and activity is structured as follows: chapter 3 deals with the propagation of electromagnetic transients in power systems by defining characteristics and causes of the phenomena and briefly reporting the theory and approaches used to study transients propagation. Then the state of the art concerning methods to detect and locate faults in distribution networks is presented. Finally the attention is paid on the particular technique adopted for the same purpose during the thesis, and the methods developed on the basis of such approach. Chapter 4 reports the configuration of the distribution networks on which the fault location method has been applied by means of simulations as well as the results obtained case by case. In this way the performance featured by the location procedure firstly in ideal then in realistic operating conditions are tested. In chapter 5 the measurement system designed to implement the transients detection and fault location method is presented. The hardware belonging to the measurement chain of every acquisition channel in remote stations is described. Then, the global measurement system is characterized by considering the non ideal aspects of each device that can concur to the final combined uncertainty on the estimated position of the fault in the network under test. Finally, such parameter is computed according to the Guide to the Expression of Uncertainty in Measurements, by means of a numeric procedure. In the last chapter a device is described that has been designed and realized during the PhD activity aiming at substituting the commercial capacitive voltage divider belonging to the conditioning block of the measurement chain. Such a study has been carried out aiming at providing an alternative to the used transducer that could feature equivalent performance and lower cost. In this way, the economical impact of the investment associated to the whole measurement system would be significantly reduced, making the method application much more feasible.
Resumo:
In der vorliegenden Diplomarbeit erfolgte die Beobachtung von Eisströmen und Schelfeisen an der Küste der Amundsen See in der West-Antarktis, unter Verwendung von ERS-SAR-Amplitudenbildprodukten. Bestandteile dieser Beobachtung waren die Erstellung eines Gletscherinventares, die Erstellung von Multitemporalbildern, die Auswertung von Veränderungen der Eisfronpositionen und - schwerpunktmäßig - die Bestimmung von Eisfließgeschwindigkeiten und deren räumlicher und zeitlicher Vergleich.
Resumo:
Remote sensing (RS) techniques have evolved into an important instrument to investigate forest function. New methods based on the remote detection of leaf biochemistry and photosynthesis are being developed and applied in pilot studies from airborne and satellite platforms (PRI, solar-induced fluorescence; N and chlorophyll content). Non-destructive monitoring methods, a direct application of RS studies, are also proving increasingly attractive for the determination of stress conditions or nutrient deficiencies not only in research but also in agronomy, horticulture and urban forestry (proximal RS). In this work I will focus on some novel techniques recently developed for the estimation of photochemistry and photosynthetic rates based (i) on the proximal measurement of steady-state chlorophyll fluorescence yield, or (ii) the remote sensing of changes in hyperspectral leaf reflectance, associated to xanthophyll de-epoxydation and energy partitioning, which is closely coupled to leaf photochemistry and photosynthesis. I will also present and describe a mathematical model of leaf steady-state fluorescence and photosynthesis recently developed in our group. Two different species were used in the experiments: Arbutus unedo, a schlerophyllous Mediterranean species, and Populus euroamericana, a broad leaf deciduous tree widely used in plantation forestry. Results show that ambient fluorescence could provide a useful tool for testing photosynthetic processes from a distance. These results confirm also the photosynthetic reflectance index (PRI) as an efficient remote sensing reflectance index estimating short-term changes in photochemical efficiency as well as long-term changes in leaf biochemistry. The study also demonstrated that RS techniques could provide a fast and reliable method to estimate photosynthetic pigment content and total nitrogen, beside assessing the state of photochemical process in our plants’ leaves in the field. This could have important practical applications for the management of plant cultivation systems, for the estimation of the nutrient requirements of our plants for optimal growth.
Resumo:
My work concerns two different systems of equations used in the mathematical modeling of semiconductors and plasmas: the Euler-Poisson system and the quantum drift-diffusion system. The first is given by the Euler equations for the conservation of mass and momentum, with a Poisson equation for the electrostatic potential. The second one takes into account the physical effects due to the smallness of the devices (quantum effects). It is a simple extension of the classical drift-diffusion model which consists of two continuity equations for the charge densities, with a Poisson equation for the electrostatic potential. Using an asymptotic expansion method, we study (in the steady-state case for a potential flow) the limit to zero of the three physical parameters which arise in the Euler-Poisson system: the electron mass, the relaxation time and the Debye length. For each limit, we prove the existence and uniqueness of profiles to the asymptotic expansion and some error estimates. For a vanishing electron mass or a vanishing relaxation time, this method gives us a new approach in the convergence of the Euler-Poisson system to the incompressible Euler equations. For a vanishing Debye length (also called quasineutral limit), we obtain a new approach in the existence of solutions when boundary layers can appear (i.e. when no compatibility condition is assumed). Moreover, using an iterative method, and a finite volume scheme or a penalized mixed finite volume scheme, we numerically show the smallness condition on the electron mass needed in the existence of solutions to the system, condition which has already been shown in the literature. In the quantum drift-diffusion model for the transient bipolar case in one-space dimension, we show, by using a time discretization and energy estimates, the existence of solutions (for a general doping profile). We also prove rigorously the quasineutral limit (for a vanishing doping profile). Finally, using a new time discretization and an algorithmic construction of entropies, we prove some regularity properties for the solutions of the equation obtained in the quasineutral limit (for a vanishing pressure). This new regularity permits us to prove the positivity of solutions to this equation for at least times large enough.
Resumo:
In dieser Arbeit wurde die Elektronenemission von Nanopartikeln auf Oberflächen mittels spektroskopischen Photoelektronenmikroskopie untersucht. Speziell wurden metallische Nanocluster untersucht, als selbstorganisierte Ensembles auf Silizium oder Glassubstraten, sowie ferner ein Metall-Chalcogenid (MoS2) Nanoröhren-Prototyp auf Silizium. Der Hauptteil der Untersuchungen war auf die Wechselwirkung von fs-Laserstrahlung mit den Nanopartikeln konzentriert. Die Energie der Lichtquanten war kleiner als die Austrittsarbeit der untersuchten Proben, so dass Ein-Photonen-Photoemission ausgeschlossen werden konnte. Unsere Untersuchungen zeigten, dass ausgehend von einem kontinuierlichen Metallfilm bis hin zu Clusterfilmen ein anderer Emissionsmechanismus konkurrierend zur Multiphotonen-Photoemission auftritt und für kleine Cluster zu dominieren beginnt. Die Natur dieses neuen Mechanismus` wurde durch verschiedenartige Experimente untersucht. Der Übergang von einem kontinuierlichen zu einem Nanopartikelfilm ist begleitet von einer Zunahme des Emissionsstroms von mehr als eine Größenordnung. Die Photoemissions-Intensität wächst mit abnehmender zeitlicher Breite des Laserpulses, aber diese Abhängigkeit wird weniger steil mit sinkender Partikelgröße. Die experimentellen Resultate wurden durch verschiedene Elektronenemissions-Mechanismen erklärt, z.B. Multiphotonen-Photoemission (nPPE), thermionische Emission und thermisch unterstützte nPPE sowie optische Feldemission. Der erste Mechanismus überwiegt für kontinuierliche Filme und Partikel mit Größen oberhalb von mehreren zehn Nanometern, der zweite und dritte für Filme von Nanopartikeln von einer Größe von wenigen Nanometern. Die mikrospektroskopischen Messungen bestätigten den 2PPE-Emissionsmechanismus von dünnen Silberfilmen bei „blauer“ Laseranregung (hν=375-425nm). Das Einsetzen des Ferminiveaus ist relativ scharf und verschiebt sich um 2hν, wenn die Quantenenergie erhöht wird, wogegen es bei „roter“ Laseranregung (hν=750-850nm) deutlich verbreitert ist. Es zeigte sich, dass mit zunehmender Laserleistung die Ausbeute von niederenergetischen Elektronen schwächer zunimmt als die Ausbeute von höherenergetischen Elektronen nahe der Fermikante in einem Spektrum. Das ist ein klarer Hinweis auf eine Koexistenz verschiedener Emissionsmechanismen in einem Spektrum. Um die Größenabhängigkeit des Emissionsverhaltens theoretisch zu verstehen, wurde ein statistischer Zugang zur Lichtabsorption kleiner Metallpartikel abgeleitet und diskutiert. Die Elektronenemissionseigenschaften bei Laseranregung wurden in zusätzlichen Untersuchungen mit einer anderen Anregungsart verglichen, der Passage eines Tunnelstroms durch einen Metall-Clusterfilm nahe der Perkolationsschwelle. Die elektrischen und Emissionseigenschaften von stromtragenden Silberclusterfilmen, welche in einer schmalen Lücke (5-25 µm Breite) zwischen Silberkontakten auf einem Isolator hergestellt wurden, wurden zum ersten Mal mit einem Emissions-Elektronenmikroskop (EEM) untersucht. Die Elektronenemission beginnt im nicht-Ohmschen Bereich der Leitungsstrom-Spannungskurve des Clusterfilms. Wir untersuchten das Verhalten eines einzigen Emissionszentrums im EEM. Es zeigte sich, dass die Emissionszentren in einem stromleitenden Silberclusterfilm Punktquellen für Elektronen sind, welche hohe Emissions-Stromdichten (mehr als 100 A/cm2) tragen können. Die Breite der Energieverteilung der Elektronen von einem einzelnen Emissionszentrum wurde auf etwa 0.5-0.6 eV abgeschätzt. Als Emissionsmechanismus wird die thermionische Emission von dem „steady-state“ heißen Elektronengas in stromdurchflossenen metallischen Partikeln vorgeschlagen. Größenselektierte, einzelne auf Si-Substraten deponierte MoS2-Nanoröhren wurden mit einer Flugzeit-basierten Zweiphotonen-Photoemissions-Spektromikroskopie untersucht. Die Nanoröhren-Spektren wiesen bei fs-Laser Anregung eine erstaunlich hohe Emissionsintensität auf, deutlich höher als die SiOx Substratoberfläche. Dagegen waren die Röhren unsichtbar bei VUV-Anregung bei hν=21.2 eV. Eine ab-initio-Rechnung für einen MoS2-Slab erklärt die hohe Intensität durch eine hohe Dichte freier intermediärer Zustände beim Zweiphotonen-Übergang bei hν=3.1 eV.
Resumo:
Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.
Resumo:
Selen ist in geringen Mengen ein essentielles Nährelement, das aber in höheren Gehalten toxisch wird. Der Se-Kreislauf in der Umwelt ist eng mit Redoxreaktionen wie der Reduktion von Se-Oxyanionen zu Methylselenid verknüpft. Flüchtige Methylselenide sind weit verbreitet und stellen einen wichtigen Se-Fluss in der Umwelt dar. Das übergeordnete Ziel meiner Dissertation war, die Stabilisotopenfraktionierung von Se durch Biomethylierung verschiedener oxidierter Se-Spezies (Se[IV] und Se[VI]) im Boden aufzuklären. Zunächst wurde eine Methode entwickelt, die es erlaubte flüchte Methylselenide quantitativ zurückzuhalten. Es zeigte sich, dass alkalische Peroxid-Lösung dafür geeignet war. Mit alkalischer Peroxid-Lösung wurde eine Wiederfindung von 95,6 ± Standardabweichung 5,4% in Verflüchtigungsexperimenten mit Methylselenid-Standards erreicht. Bei Einsatz von alkalischer Peroxid-Lösung in geschlossenen Mikrokosmos-Experimenten kam es zu keinen Se-Verlusten und ausgeglichenen Se-Isotopenbilanzen. Die massengewichteten δ82/76Se-Werte lagen für Se(IV) und Se(VI) am Ende der Mikrokosmos-Inkubationen bei -0,31 ± 0,05‰ (n = 3) und -0,76 ± 0,07‰ (n = 3) verglichen mit -0,20 ± 0,05‰ und -0,69 ± 0,07‰ im jeweils zugegebenen Se. Im zweiten Teil meiner Dissertation wurde die Pilzart Alternaria alternata mit Se(VI) und Se(IV) in geschlossenen Mikrokosmen für 11-15 und Se(IV) zusätzlich für 3-5 Tage bei 30°C inkubiert. In 11-15 Tagen wurden 2,9-11% des Se(VI) und 21-29% des Se(IV) und in 3-5 Tagen, 3-5% des Se(IV) methyliert. Die anfänglichen δ82/76Se-Werte von Se(VI) und Se(IV) lagen bei -0,69 ± 0,07‰, und -0,20 ± 0,05‰. Die δ82/76Se-Werte der Methylselenide unterschieden sich nach 11-15 Tagen Inkubation signifikant zwischen Se(VI) (-3,97 bis -3,25 ‰) und Se(IV) (-1,44 bis -0,16‰) als Quellen. Die δ82/76Se-Werte der Methylselenide zeigen also die Quellen der Biomethylierung von Se an. Die kürzere Inkubation von Se(IV) für 3-5 Tage führte zu einer ausgeprägten Se-Isotopenfraktonierung von mindestens -6‰, bevor ein Fließgleichgewicht erreicht wurde. Im dritten Teil bestimmte ich die Bindungsformen von Se mit drei operativ definierten sequentiellen Extraktionen und die δ82/76S-Werte des gesamten Selens in zehn urbanen Oberböden mit 0,09-0,52 mg/kg Se, die fünf verschiedene Landnutzungstypen repräsentierten (Überschwemmungsgrünland, Garten, Park, Straßenrand und Wald). Nur ein kleiner Teil des Seleniums lag in austauschbarer und damit direkt bioverfügbarer und in residualer, wenig reaktiver Form vor. Das meiste Se war an die organische Substanz und Fe-(Hydr-)Oxide gebunden (42-77% des gesamten Selens). Der mittlere δ82/76Se-Wert des gesamten Selens in den Oberböden lag mit -0,03 ± 0,38‰ nahe beim Mittelwert der gesamten Erde. Geringfügig niedrigere Se-Isotopensignale von -0,59 bis -0,35‰ v.a. in Waldböden und geringfügig höhere von 0,26 to 0,45‰ in Überschwemmungsgrünland wurden vermutlich durch Boden-Pflanze-Recycling und Se-Kontaminationen durch das Flusswasser verursacht. Der vierte Teil umfasste ein “Natural Attenuation”-Experiment und Mikrokosmos-Inkubationen von Bodenproben mit A. alternata. Die Equilibrierung von zum Boden gegebenem Se(IV) und Se(VI) für drei Tage führte zu abnehmenden wasserlöslichen Se-Gehalten um 32-44% bzw. 8-14, die mit kleinen Isotopenfraktionierung (ε = -0,045 bis -0,12 ‰ and -0,05 to -0,07‰ verbunden waren. In zwei der inkubierten Böden mit mäßig sauren pH-Werten wurden zwischen 9,1 und 30% des zugefügten Se(IV) und 1,7% des zugefügten Se(VI) methyliert während in einem stark sauren Boden keine Methylierung auftrat. Das aus Se(IV) entstandene Methylselenid war deutlich gegenüber dem zugegebenen Se-Standard (0,20‰) an 82Se verarmt (δ82/76Se = -3,3 bis -4,5‰). Meine Ergebnisse zeigen, dass die stabilen Isotopenverhältnisse von Se neue Einblicke in Se-Transformationsprozesse erlauben.rn
Resumo:
Infektionen zählen bei hämodialysepflichtigen Intensivpatienten zu den häufigsten Todesursachen. Um die Wirksamkeit und Sicherheit der Antibiotikatherapie zu verbessern, müssen verschiedene Faktoren, zum Beispiel die Pharmakodynamik und Pharmakokinetik des Antibiotikums, die Art des Hämodialyseverfahrens, die Art des Dialysefilters und der Zustand des Patienten berücksichtigt werden. Im Rahmen einer klinischen Studie wurde die antibiotische Wirkung von Piperacillin und Ciprofloxacin bei kontinuierlichen Hämodialyseverfahren mittels pharmakokinetischer Methoden bestimmt.Für die klinische Studie wurde eine HPLC-Methode mit kombinierter Festphasenextraktion (SPE) entwickelt und nach den Grenzwerten der EMA Guideline on Bioanalytical Method Validation validiert. Die Methode erwies sich für die gleichzeitige Bestimmung von Piperacillin und Ciprofloxacin in Plasma- und Dialysatproben als valide und zuverlässig. Die ermittelten Konzentrationen der beiden Antibiotika wurden für die Berechnung der pharmakokinetischen Parameter verwendet.In der klinischen Studie wurden bei 24 Intensivpatienten mit kontinuierlicher venovenöser Hämodialyse (CVVHD) bzw. kontinuierlicher venovenöser Hämodiafiltration (CVVHDF), bei denen Piperacillin/Tazobactam, Ciprofloxacin oder eine Kombination dieser Antibiotika indiziert war, die Antibiotikakonzentrationen im Plasma und Dialysat im Steady State gemessen. Unmittelbar vor einer Antibiotikainfusion (0 min) wurde ein Volumen von sechs Milliliter Blut entnommen. Weitere Blutentnahmen erfolgten 30 Minuten nach der Infusion sowie nach 1, 2, 3, 4, 8, 12 und 24 Stunden. Sobald ein Filtratbeutel ausgetauscht wurde, wurden parallel zu den Blutproben Dialysatproben entnommen. Die Konzentrationen von Piperacillin und Ciprofloxacin wurden nach der Festphasenextraktion aus den Plasmaproben mit der validierten HPLC-Methode innerhalb von 15 Minuten zuverlässig bestimmt. Neben den gemessenen Plasmakonzentrationen (Cmax, Cmin) wurden pharmakokinetische Parameter wie t0,5, VdSS, AUC, Cltot, ClCRRT und Clextrarenal berechnet. Für Piperacillin wurde untersucht, ob die Plasmaspiegel der Patienten für das gesamte Dosierungsintervall oberhalb der geforderten vierfachen MHK von 64 mg/l liegen. Für Ciprofloxacin wurde untersucht, ob die aus gemessenen Plasmaspiegeln berechnete AUC den Quotienten aus AUC und MHK (=AUIC) ≥ 125 h erfüllt.Bei zehn der 21 mit Piperacillin behandelten Patienten lagen die Plasmaspiegel unterhalb der angestrebten Konzentration von 64 mg/l für das gesamte Dosierungsintervall. Das Patientenkollektiv wies eine große interindividuelle Variabilität auf. Mit einer Wahrscheinlichkeit von 95 % waren 26 - 70 % der Patienten unterdosiert. In der Gruppe der mit Ciprofloxacin behandelten Patienten wurde die angestrebte AUIC von 125 h nur bei neun der 20 Patienten erreicht. Mit einer Wahrscheinlichkeit von 95 % waren 29 - 76 % der Patienten unterdosiert. Die kontinuierlichen Nierenersatzverfahren hatten nur einen geringen Anteil an der totalen Clearance der untersuchten Antibiotika. Während die Clearance des kontinuierlichen Nierenersatzverfahren bei Piperacillin für ein Drittel der Arzneistoffelimination verantwortlich war, trug diese im Fall von Ciprofloxacin lediglich zu 16 % zur Arzneistoffelimination bei.Die Dosierung von Piperacillin/Tazobactam bzw. Ciprofloxacin sollte bei kritisch kranken Intensivpatienten mit kontinuierlicher Hämodialyse mindestens 4 mal 4/0,5 g pro Tag bzw. 2 mal 400 mg pro Tag betragen. Diese Empfehlungen sind insbesondere für die verwendeten Dialyseverfahren und -bedingungen zutreffend. Zur weiteren Optimierung der Antibiotikatherapie ist ein Therapeutisches Drug Monitoring empfehlenswert.
Resumo:
Das wichtigste Oxidationsmittel für den Abbau flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) in der Atmosphäre ist das Hydroxylradikal (OH), welches sich in einem schnellen chemischen Gleichgewicht mit dem Hydroperoxylradical (HO2) befindet. Bisherige Messungen und Modellvergleiche dieser Radikalspezies in Waldgebieten haben signifikante Lücken im Verständnis der zugrundeliegenden Prozesse aufgezeigt.rnIm Rahmen dieser Doktorarbeit wurden Messungen von OH- und HO2-Radikalen mittelsrnlaserinduzierten Fluoreszensmesstechnik (LIF, engl.: laser-induced fluorescence) in einem Nadelwald in Süd-Finnland während der Messkampagne HUMPPA–COPEC–2010 (Hyytiälä United Measurements of Photochemistry and Particles in Air – Comprehensive Organic Precursor Emission and Concentration study) im Sommer 2010 durchgeführt. Unterschiedliche Komponenten des LIF-Instruments wurden verbessert. Eine modifizierte Methode zur Bestimmung des Hintergrundsignals (engl.: InletPreInjector technique) wurde in den Messaufbaurnintegriert und erstmals zur Messung von atmosphärischem OH verwendet. Vergleichsmessungen zweier Instrumente basierend auf unterschiedlichen Methoden zur Messung von OH-Radikalen, chemische Ionisationsmassenspektrometrie (CIMS - engl.: chemical ionization mass spectrometry) und LIF-Technik, zeigten eine gute Übereinstimmung. Die Vergleichsmessungen belegen das Vermögen und die Leistungsfähigkeit des modifizierten LIF-Instruments atmosphärische OH Konzentrationen akkurat zu messen. Nachfolgend wurde das LIF-Instrument auf der obersten Plattform eines 20m hohen Turmes positioniert, um knapp oberhalb der Baumkronen die Radikal-Chemie an der Schnittstelle zwischen Ökosystem und Atmosphäre zu untersuchen. Umfangreiche Messungen - dies beinhaltet Messungen der totalen OH-Reaktivität - wurden durchgeführt und unter Verwendung von Gleichgewichtszustandsberechnungen und einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, analysiert. Wenn moderate OH-Reaktivitäten(k′(OH)≤ 15 s−1) vorlagen, sind OH-Produktionsraten, die aus gemessenen Konzentrationen von OH-Vorläuferspezies berechnet wurden, konsistent mit Produktionsraten, die unter der Gleichgewichtsannahme von Messungen des totalen OH Verlustes abgeleitet wurden. Die primären photolytischen OH-Quellen tragen mit einem Anteil von bis zu einem Drittel zur Gesamt-OH-Produktion bei. Es wurde gezeigt, dass OH-Rezyklierung unter Bedingungen moderater OH-Reaktivität hauptsächlich durch die Reaktionen von HO2 mit NO oder O3 bestimmt ist. Während Zeiten hoher OH-Reaktivität (k′(OH) > 15 s−1) wurden zusätzliche Rezyklierungspfade, die nicht über die Reaktionen von HO2 mit NO oder O3, sondern direkt OH bilden, aufgezeigt.rnFür Hydroxylradikale stimmen Boxmodell-Simulationen und Messungen gut übereinrn(OHmod/OHobs=1.04±0.16), während HO2-Mischungsverhältnisse in der Simulation signifikant unterschätzt werden (HO2mod/HO2obs=0.3±0.2) und die simulierte OH-Reaktivität nicht mit der gemessenen OH-Reaktivität übereinstimmt. Die gleichzeitige Unterschätzung der HO2-Mischungsverhältnisse und der OH-Reaktivität, während OH-Konzentrationen von der Simulation gut beschrieben werden, legt nahe, dass die fehlende OH-Reaktivität in der Simulation eine noch unberücksichtigte HO2-Quelle darstellt. Zusätzliche, OH-unabhängigernRO2/HO2-Quellen, wie z.B. der thermische Zerfall von herantransportiertem peroxyacetylnitrat (PAN) und die Photolyse von Glyoxal sind indiziert.