892 resultados para generative Verfahren
Resumo:
Da der gemeinsame Endpunkt vieler Erkrankungen ein thrombotisches Ereignis ist, spielt eine effiziente Antikoagulation eine zentrale Rolle in der heutigen Medizin. Jedoch sind die gängigen Tests zum Monitoring der Gerinnungshemmung nicht ideal. Neue Tests, wie z.B. die Prothrombinase-induzierte Gerinnungszeit (PiCT), sollen die bestehenden Nachteile ausräumen und somit eine bessere Therapieüberwachung gewährleisten.rnDie vorliegende Arbeit untersucht dieses neue Verfahren beim Monitoring von Heparinen und Heparinoiden im Vergleich zu zwei gängigen anti-Faktor Xa-Aktivität(aXa)-Tests bei Patienten mit unterschiedlichem Thromboserisiko (z.B. Schwangere, Adipöse, Niereninsuffiziente).rnDazu wurde bei 175 Proben von 102 Patienten (53 männlich, 49 weiblich, medianes Alter 64 Jahre) die gerinnungshemmende Aktivität des verabreichten Medikaments (UFH, Enoxaparin, Dalteparin oder Danaparoid) mit zwei chromogenen Assays und dem PiCT-Test gemessen.rnHierbei ließen sich insgesamt Werte von 0 bis 1,36 IE/ml aXa feststellen. Im Vergleich lieferten die aXa-Tests höhere Messwerte als PiCT bei allen Medikamenten außer UFH. Während die Ergebnisse der chromogenen Verfahren insgesamt sehr stark korrelierten (r = 0,86), war die Übereinstimmung mit den PiCT-Ergebnissen schwach bis deutlich (r = 0,40 bzw. r = 0,66). Die Faktoren Schwangerschaft, Adipositas und Niereninsuffizienz zeigten auf die Gesamtergebnisse keinen nennenswerten Einfluss. rnZusammenfassend kann gesagt werden, dass PiCT dennoch ein brauchbarer Test zum Monitoring der Antikoagulation sein könnte. Um den Nutzen des Tests v.a. in Bezug auf seine Aussagekraft bei Komplikationen zu beweisen, sind aber weitere klinische Studien notwendig.rn
Resumo:
This thesis was undertaken to explore possible applications of high gradient magnetic separation (HGMS) for the separation of RBCs infected with Plasmodium falciparum, with the dual aim of establishing a novel and superior method for isolating late-stage infected cells, and of obtaining synchronized cell cultures.rnThe presented work presents protocols for HGMS of parasitized RBCs that fulfil these aims. Late-stage parasitized cell can be isolated essentially devoid of contamination with non-infected and ring-stage infected cells. Such an easy method for a highly quantitative and qualitative purification has not yet been reported. Synchronous cultures can be obtained both following depletion of late-stage infected cells, and following isolation of the latter. The quality of synchronization cultures matches that of sorbitol lysis, the current standard method for malaria culture synchronization. An advantage of HGMS is the avoidance of osmotic stress for RBCs. The new methods further have the appeal of high reproducibility, cost-effectiveness, and simple protocol.rnIt should be possible to take the methods beyond Plasmodium infected RBCs. Most magnetic separation techniques in the sector of biomedical research employ columns with a hydrophilic polymer-coated matrix. Our procedure employs an optimized buffer system. Polymer coating becomes unnecessary and uncoated columns are available at a fraction of the cost.
Resumo:
Organic semiconductors with the unique combination of electronic and mechanical properties may offer cost-effective ways of realizing many electronic applications, e.g. large-area flexible displays, printed integrated circuits and plastic solar cells. In order to facilitate the rational compound design of organic semiconductors, it is essential to understand relevant physical properties e.g. charge transport. This, however, is not straightforward, since physical models operating on different time and length scales need to be combined. First, the material morphology has to be known at an atomistic scale. For this atomistic molecular dynamics simulations can be employed, provided that an atomistic force field is available. Otherwise it has to be developed based on the existing force fields and first principle calculations. However, atomistic simulations are typically limited to the nanometer length- and nanosecond time-scales. To overcome these limitations, systematic coarse-graining techniques can be used. In the first part of this thesis, it is demonstrated how a force field can be parameterized for a typical organic molecule. Then different coarse-graining approaches are introduced together with the analysis of their advantages and problems. When atomistic morphology is available, charge transport can be studied by combining the high-temperature Marcus theory with kinetic Monte Carlo simulations. The approach is applied to the hole transport in amorphous films of tris(8-hydroxyquinoline)aluminium (Alq3). First the influence of the force field parameters and the corresponding morphological changes on charge transport is studied. It is shown that the energetic disorder plays an important role for amorphous Alq3, defining charge carrier dynamics. Its spatial correlations govern the Poole-Frenkel behavior of the charge carrier mobility. It is found that hole transport is dispersive for system sizes accessible to simulations, meaning that calculated mobilities depend strongly on the system size. A method for extrapolating calculated mobilities to the infinite system size is proposed, allowing direct comparison of simulation results and time-of-flight experiments. The extracted value of the nondispersive hole mobility and its electric field dependence for amorphous Alq3 agree well with the experimental results.
Resumo:
In this thesis we develop further the functional renormalization group (RG) approach to quantum field theory (QFT) based on the effective average action (EAA) and on the exact flow equation that it satisfies. The EAA is a generalization of the standard effective action that interpolates smoothly between the bare action for krightarrowinfty and the standard effective action rnfor krightarrow0. In this way, the problem of performing the functional integral is converted into the problem of integrating the exact flow of the EAA from the UV to the IR. The EAA formalism deals naturally with several different aspects of a QFT. One aspect is related to the discovery of non-Gaussian fixed points of the RG flow that can be used to construct continuum limits. In particular, the EAA framework is a useful setting to search for Asymptotically Safe theories, i.e. theories valid up to arbitrarily high energies. A second aspect in which the EAA reveals its usefulness are non-perturbative calculations. In fact, the exact flow that it satisfies is a valuable starting point for devising new approximation schemes. In the first part of this thesis we review and extend the formalism, in particular we derive the exact RG flow equation for the EAA and the related hierarchy of coupled flow equations for the proper-vertices. We show how standard perturbation theory emerges as a particular way to iteratively solve the flow equation, if the starting point is the bare action. Next, we explore both technical and conceptual issues by means of three different applications of the formalism, to QED, to general non-linear sigma models (NLsigmaM) and to matter fields on curved spacetimes. In the main part of this thesis we construct the EAA for non-abelian gauge theories and for quantum Einstein gravity (QEG), using the background field method to implement the coarse-graining procedure in a gauge invariant way. We propose a new truncation scheme where the EAA is expanded in powers of the curvature or field strength. Crucial to the practical use of this expansion is the development of new techniques to manage functional traces such as the algorithm proposed in this thesis. This allows to project the flow of all terms in the EAA which are analytic in the fields. As an application we show how the low energy effective action for quantum gravity emerges as the result of integrating the RG flow. In any treatment of theories with local symmetries that introduces a reference scale, the question of preserving gauge invariance along the flow emerges as predominant. In the EAA framework this problem is dealt with the use of the background field formalism. This comes at the cost of enlarging the theory space where the EAA lives to the space of functionals of both fluctuation and background fields. In this thesis, we study how the identities dictated by the symmetries are modified by the introduction of the cutoff and we study so called bimetric truncations of the EAA that contain both fluctuation and background couplings. In particular, we confirm the existence of a non-Gaussian fixed point for QEG, that is at the heart of the Asymptotic Safety scenario in quantum gravity; in the enlarged bimetric theory space where the running of the cosmological constant and of Newton's constant is influenced by fluctuation couplings.
Resumo:
Membranproteine spielen eine wichtige Rolle bei physiologischen Prozessen wie Signalweiterleitung oder Immunreaktion. Deshalb stehen sie im Fokus der pharmakologischen Wirkstoffentwicklung und es besteht großes Interesse, Membranproteinbasierte Biosensoren zu entwickeln, die sich z.B. als Screening-Plattformen eignen. Allerdings stellt die Handhabung von Membranproteinen wegen ihrer amphiphilen Struktur eine große Herausforderung dar. Membranproteine werden meist in Zellkultur oder in bakteriellen Expressionssystemen synthetisiert. Diese Verfahren liefern aber oft nur eine geringe Ausbeute und erlauben wenig Kontrolle über die Expressionsbedingungen. Als alternativer Ansatz bietet sich stattdessen die in vitro Synthese von Proteinen an, die in einer zellfreien Umgebung stattfindet. Ziel der vorliegenden Arbeit war die Etablierung eines miniaturisierten Analysesystems, das Aktivitätsmessungen an in vitro synthetisierten Ionenkanälen erlaubt. Dafür wurde ein Labon- Chip entwickelt, der elektrochemische und optische Nachweismethoden in parallelen Anätzen ermöglicht. Als amphiphile Umgebung für die Inkorporation von Membranproteinen wurden vier verschieden biomimetische Membranaufbauten hinsichtlich ihrer Dichtigkeit und ihrer Reproduzierbarkeit untersucht. Als Methode fanden insbesondere die Impedanzspektroskpie und die Oberflächenplasmonen-Resonanzspektroskopie Anwendung. Die peptide cushioned Bilyer Lipid Membranes (pcBLM) eignete sich dabei am besten für Untersuchungen an Membranproteinen. Zur Detektion der Ionenkanalaktivität wurde eine neue Messmethode etabliert, die auf der Messung der Impedanz bei fester Frequenz basiert und u.a. eine Aussage über die Änderung des Membranwiderstandes bei Aktivierung erlaubt. Am Beispiel des nicotinischen Acetylcholinrezeptors (nAchR) konnte gezeigt werden, dass sich die Aktivität von Ionenkanälen mit dem entwickelten Chip-System nachweisen ließ. Die Spezifität der Methode konnte durch verschiedene Kontrollen wie die Zugabe eines nicht-aktivierenden Liganden oder Inhibition des Rezeptors nachgewiesen werden. Weiterhin konnte die in vitro Synthese des Ionenkanals a7 nAchR durch Radioaktivmarkierung nachgewiesen werden. Die Inkorporation des Rezeptors in die biomimetischen Membranen wurde mit Immunodetektion und elektrochemischen Methoden untersucht. Es zeigte sich, dass die funktionelle Inkorporation des a7 nAchR davon abhing, welcher biomimetische Membranaufbau verwendet wurde.
Resumo:
Ziel dieser Dissertation ist die experimentelle Charakterisierung und quantitative Beschreibung der Hybridisierung von komplementären Nukleinsäuresträngen mit oberflächengebundenen Fängermolekülen für die Entwicklung von integrierten Biosensoren. Im Gegensatz zu lösungsbasierten Verfahren ist mit Microarray Substraten die Untersuchung vieler Nukleinsäurekombinationen parallel möglich. Als biologisch relevantes Evaluierungssystem wurde das in Eukaryoten universell exprimierte Actin Gen aus unterschiedlichen Pflanzenspezies verwendet. Dieses Testsystem ermöglicht es, nahe verwandte Pflanzenarten auf Grund von geringen Unterschieden in der Gen-Sequenz (SNPs) zu charakterisieren. Aufbauend auf dieses gut studierte Modell eines House-Keeping Genes wurde ein umfassendes Microarray System, bestehend aus kurzen und langen Oligonukleotiden (mit eingebauten LNA-Molekülen), cDNAs sowie DNA und RNA Targets realisiert. Damit konnte ein für online Messung optimiertes Testsystem mit hohen Signalstärken entwickelt werden. Basierend auf den Ergebnissen wurde der gesamte Signalpfad von Nukleinsärekonzentration bis zum digitalen Wert modelliert. Die aus der Entwicklung und den Experimenten gewonnen Erkenntnisse über die Kinetik und Thermodynamik von Hybridisierung sind in drei Publikationen zusammengefasst die das Rückgrat dieser Dissertation bilden. Die erste Publikation beschreibt die Verbesserung der Reproduzierbarkeit und Spezifizität von Microarray Ergebnissen durch online Messung von Kinetik und Thermodynamik gegenüber endpunktbasierten Messungen mit Standard Microarrays. Für die Auswertung der riesigen Datenmengen wurden zwei Algorithmen entwickelt, eine reaktionskinetische Modellierung der Isothermen und ein auf der Fermi-Dirac Statistik beruhende Beschreibung des Schmelzüberganges. Diese Algorithmen werden in der zweiten Publikation beschrieben. Durch die Realisierung von gleichen Sequenzen in den chemisch unterschiedlichen Nukleinsäuren (DNA, RNA und LNA) ist es möglich, definierte Unterschiede in der Konformation des Riboserings und der C5-Methylgruppe der Pyrimidine zu untersuchen. Die kompetitive Wechselwirkung dieser unterschiedlichen Nukleinsäuren gleicher Sequenz und die Auswirkungen auf Kinetik und Thermodynamik ist das Thema der dritten Publikation. Neben der molekularbiologischen und technologischen Entwicklung im Bereich der Sensorik von Hybridisierungsreaktionen oberflächengebundener Nukleinsäuremolekülen, der automatisierten Auswertung und Modellierung der anfallenden Datenmengen und der damit verbundenen besseren quantitativen Beschreibung von Kinetik und Thermodynamik dieser Reaktionen tragen die Ergebnisse zum besseren Verständnis der physikalisch-chemischen Struktur des elementarsten biologischen Moleküls und seiner nach wie vor nicht vollständig verstandenen Spezifizität bei.
Resumo:
Während Therapeutisches Drug Monitoring (TDM) im klinischen Alltag der stationären Behandlung in der Psychiatrie bereits fest etabliert ist, kommt es in der ambulanten Betreuung von psychisch Kranken bislang noch selten zum Einsatz. Ziel dieser Arbeit war es zu klären, wie TDM im ambulanten Bereich eingesetzt wird, wann seine Anwendung sinnvoll ist und ob es Hinweise gibt, dass TDM zu einer besseren Psychopharmakotherapie beitragen kann. rnEine Grundvoraussetzung für den Einsatz von TDM ist die Messbarkeit des Arzneistoffes. Am Beispiel des Antipsychotikums Flupentixol wurde eine Quantifizierungsmethode entwickelt, validiert und in die Laborroutine integriert. Die neue Methode erfüllte alle nach Richtlinien vorgegebenen Anforderungen für quantitative Laboruntersuchungen. Die Anwendbarkeit in der Laborroutine wurde anhand von Untersuchungen an Patienten gezeigt. rnEine weitere Voraussetzung für eine TDM-geleitete Dosisanpassung ist die Kenntnis des therapeutischen Referenzbereiches. In dieser Arbeit wurde exemplarisch ein Referenzbereich für das Antipsychotikum Quetiapin ermittelt. Die Untersuchung verglich darüber hinaus die neu eingeführten Arzneiformulierung Quetiapin retard mit schnell freisetzendem Quetiapin. Es zeigte sich, dass die therapiebegleitenden Blutspiegelkontrollen beider Formulierungen mit der Einstellung des Blutspiegels auf den therapeutischen Bereich von 100 - 500 ng/ml die Wahrscheinlichkeit des Therapieansprechens erhöhen. Bei den verschiedenen Formulierungen musste unbedingt auf den Zeitpunkt der Blutentnahmen nach Einnahme geachtet werden.rnEs wurde eine multizentrische Querschnittsuntersuchung zur Analyse von TDM unter naturalistischen Bedingungen an ambulanten Patienten durchgeführt, und zwar in Ambulanzen, in denen TDM als fester Bestandteil der Therapieüberwachung genutzt wurde und in Ambulanzen, in denen TDM sporadisch engesetzt, bzw. neu eingeführt wurde. Nach dieser Erhebung schien die Anwendung von TDM zu einer besseren Versorgung der Patienten beizutragen. Es wurde festgestellt, dass in den Ambulanzen mit bewusster Anwendung von TDM mehr Patienten mit Blutspiegeln im therapeutischen Bereich vorkamen als in den Ambulanzen mit nur sporadisch durchgeführten Blutspiegelmessungen. Bei Letzteren betrug die mittlere Anzahl an Medikamenten pro Patient 2,8 gegenüber 2,2 in den anderen Ambulanzen, was mit höheren Nebenwirkungsraten einherging. Die Schlussfolgerung, dass das Einstellen der Blutspiegel auf den therapeutischen Bereich auch tatsächlich zu besseren Therapieeffekten führte, konnte mit der Studie nicht valide überprüft werden, da die Psychopathologie nicht adäquat abgebildet werden konnte. Eine weitere Erkenntnis war, dass das reine Messen des Blutspiegels nicht zu einer Verbesserung der Therapie führte. Eine Verbesserung der Anwendung von TDM durch die Behandler wurde nach einer Schulung festgestellt, die das Ziel hatte, die Interpretation der Blutspiegelbefunde im Kontext mit patienten- und substanzspezifischen Informationen zu verbessern. Basierend auf dieser Erfahrung wurden Arzneistoffdatenblätter für die häufigsten angewandten Antipsychotika und Antidepressiva entwickelt, um damit die ambulanten Ärzte für eine eigenständige Befundinterpretation zu unterstützen. rnEin weiterer Schwerpunkt der Untersuchungen an ambulanten Patienten war die Aufdeckung von Non-Compliance durch TDM. Ein neu entwickeltes Verfahren, durch Berechnung der Streuung der mittleren Blutspiegel, erwies sich als geeignetes Instrument zur Compliance-Kontrolle in der Clozapin-Langzeittherapie. Es war etablierten anderen Verfahren überlegen. Demnach hatten Patienten ein erhöhtes Rückfallrisiko, wenn der Variationskoeffizient von nur drei nacheinander gemessenen Blutspiegeln größer als 20 % war. Da für die Beurteilung des Variationskoeffizienten das Messen von nur drei aufeinander folgenden Blutspiegeln notwendig war, kann diese Methode leicht in den ambulanten Alltag integriert werden. Der behandelnde Arzt hat so die Möglichkeit, einen rückfallgefährdeten Patienten noch vor seiner psychopathologischen Verschlechterung zu erkennen und ihn beispielsweise durch engmaschigeres Supervidieren vor einem Rückfall zu bewahren.rnAlles in allem konnte durch die eigenen Untersuchungen an psychiatrischen Patienten, die unter naturalistischen Bedingungen behandelt wurden, gezeigt werden, wie die Voraussetzungen für die Anwendung von TDM geschaffen werden, nämlich durch die Etablierung und Validierung einer Messmethode und durch die Evaluierung eines therapeutischen Referenzbereiches und wie TDM bei adäquatem Einsatz, nach Verbesserung der Compliance und des Kenntnisstandes der behandelnden Ärzte im praktischen und theoretischen Umgang mit TDM, die Versorgung ambulanter psychiatrischer Patienten unterstützen kann.
Resumo:
Vancomycin-resistente Enterokokken (VRE) treten als Erreger von nosokomialen Infektionen immer häufiger auf und schränken die Therapiemöglichkeiten deutlich ein. In den eigenen Untersuchungen wurde das Vorkommen von Vancomycin-resistenten Enterococcus faecium (VREf) bei Patienten und in der aquatischen Umwelt (Abwasser und Oberflächenwasser) über einen Zeitraum von sechs Jahren (2004 bis 2009) untersucht. Eine Genotypisierung mittels Pulsfeld-Gelelektrophorese (PFGE) von 294 VREf sollte Aufschluss über genetische Verwandtschaften geben. rnEs konnte gezeigt werden, dass VREf in der aquatischen Umwelt weit verbreitet sind. In Bezug auf ihre genetische Diversität zeigten sie ein breites Spektrum an Variabilität. Ebenso konnte im zeitlichen Auftreten von VREf-Typen eine Dynamik beobachtet werden, wodurch sich Veränderungen der Population mit zeitlichem Wechsel ergaben. Enge Verwandtschaften zwischen VREf von Patienten und VREf aus der aquatischen Umwelt konnten nachgewiesen werden. Für zwei VREf gelang der Nachweis des Eintrags in die aquatische Umwelt, von Patienten aus dem Krankenhaus als Eintragsquelle ausgehend, während Zeiten eines Ausbruchs mit nosokomialen Erregern auf den Stationen. rnZusätzlich zur VREf-Population wurden außerdem die Wirkungsweise und Effizienz einer Elektroimpulsanlage untersucht, um ein zukunftsorientiertes Verfahren zur Desinfektion von bakteriell belasteten Abwässern zu entwickeln. Weiterführend wurde getestet, inwiefern sich verschiedene klinisch relevante VREf durch ein gepulstes elektrisches Feld abtöten lassen. rnEs konnte gezeigt werden, dass das synergistische Zusammenwirken des elektrischen Feldes und der Prozesstemperatur die Höhe der Keimzahlreduktion der Enterokokken beeinflussen. Dabei wurde eine isolatabhängige Elektroresistenz der VREf gegenüber gepulsten elektrischen Feldern bewiesen. Die untersuchten VREf ließen sich, im Gegensatz zu einem Vancomycin-sensiblen Stamm, nicht effizient durch die Elektroimpulsanlage abtöten, was den praktischen Einsatz einer solchen Elektroimpulsanlage als wirkungsvolles Desinfektionsverfahren in Frage stellte.
Resumo:
In dieser Arbeit wird ein vergröbertes (engl. coarse-grained, CG) Simulationsmodell für Peptide in wässriger Lösung entwickelt. In einem CG Verfahren reduziert man die Anzahl der Freiheitsgrade des Systems, so dass manrngrössere Systeme auf längeren Zeitskalen untersuchen kann. Die Wechselwirkungspotentiale des CG Modells sind so aufgebaut, dass die Peptid Konformationen eines höher aufgelösten (atomistischen) Modells reproduziert werden.rnIn dieser Arbeit wird der Einfluss unterschiedlicher bindender Wechsel-rnwirkungspotentiale in der CG Simulation untersucht, insbesondere daraufhin,rnin wie weit das Konformationsgleichgewicht der atomistischen Simulation reproduziert werden kann. Im CG Verfahren verliert man per Konstruktionrnmikroskopische strukturelle Details des Peptids, zum Beispiel, Korrelationen zwischen Freiheitsgraden entlang der Peptidkette. In der Dissertationrnwird gezeigt, dass diese “verlorenen” Eigenschaften in einem Rückabbildungsverfahren wiederhergestellt werden können, in dem die atomistischen Freiheitsgrade wieder in die CG-Strukturen eingefügt werden. Dies gelingt, solange die Konformationen des CG Modells grundsätzlich gut mit der atomistischen Ebene übereinstimmen. Die erwähnten Korrelationen spielen einerngrosse Rolle bei der Bildung von Sekundärstrukturen und sind somit vonrnentscheidender Bedeutung für ein realistisches Ensemble von Peptidkonformationen. Es wird gezeigt, dass für eine gute Übereinstimmung zwischen CG und atomistischen Kettenkonformationen spezielle bindende Wechselwirkungen wie zum Beispiel 1-5 Bindungs- und 1,3,5-Winkelpotentiale erforderlich sind. Die intramolekularen Parameter (d.h. Bindungen, Winkel, Torsionen), die für kurze Oligopeptide parametrisiert wurden, sind übertragbarrnauf längere Peptidsequenzen. Allerdings können diese gebundenen Wechselwirkungen nur in Kombination mit solchen nichtbindenden Wechselwirkungspotentialen kombiniert werden, die bei der Parametrisierung verwendet werden, sind also zum Beispiel nicht ohne weiteres mit einem andere Wasser-Modell kombinierbar. Da die Energielandschaft in CG-Simulationen glatter ist als im atomistischen Modell, gibt es eine Beschleunigung in der Dynamik. Diese Beschleunigung ist unterschiedlich für verschiedene dynamische Prozesse, zum Beispiel für verschiedene Arten von Bewegungen (Rotation und Translation). Dies ist ein wichtiger Aspekt bei der Untersuchung der Kinetik von Strukturbildungsprozessen, zum Beispiel Peptid Aggregation.rn
Resumo:
This thesis focuses on the controlled assembly of monodisperse polymer colloids into ordered two-dimensional arrangements. These assemblies, commonly referred to as colloidal monolayers, are subsequently used as masks for the generation of arrays of complex metal nanostructures on solid substrates.rnThe motivation of the research presented here is twofold. First, monolayer crystallization methods were developed to simplify the assembly of colloids and to produce more complex arrangements of colloids in a precise way. Second, various approaches to colloidal lithography are designed with the aim to include novel features or functions to arrays of metal nanostructures.rnThe air/water interface was exploited for the crystallization of colloidal monolayer architectures as it combines a two-dimensional confinement with a high lateral mobility of the colloids that is beneficial for the creation of high long range order. A direct assembly of colloids is presented that provides a cheap, fast and conceptually simple methodology for the preparation of ordered colloidal monolayers. The produced two-dimensional crystals can be transformed into non-close-packed architectures by a plasma-induced size reduction step, thus providing valuable masks for more sophisticated lithographic processes. Finally, the controlled co-assembly of binary colloidal crystals with defined stoichiometries on a Langmuir trough is introduced and characterized with respect to accessible configurations and size ratios. rnSeveral approaches to lithography are presented that aim at introducing different features to colloidal lithography. First, using metal-complex containing latex particles, the synthesis of which is described as well, symmetric arrays of metal nanoparticles can be created by controlled combustion of the organic material of the colloids. The process does not feature an inherent limit in nanoparticle size and is able to produce complex materials as will be demonstrated for FePt alloy particles. Precise control over both size and spacing of the particle array is presented. rnSecond, two lithographic processes are introduced to create sophisticated nanoparticle dimer units consisting of two crescent shaped nanostructures in close proximity; essentially by using a single colloid as mask to generate two structures simultaneously. Strong coupling processes of the parental plasmon resonances of the two objects are observed that are accompanied by high near-field enhancements. A plasmon hybridization model is elaborated to explain all polarization dependent shifts of the resonance positions. Last, a technique to produce laterally patterned, ultra-flat substrates without surface topographies by embedding gold nanoparticles in a silicon dioxide matrix is applied to construct robust and re-usable sensing architectures and to introduce an approach for the nanoscale patterning of solid supported lipid bilayer membranes. rn
Resumo:
A synthetic route was designed for the incorporation of inorganic materials within water-based miniemulsions with a complex and adjustable polymer composition. This involved co-homogenization of two inverse miniemulsions constituting precursors of the desired inorganic salt dispersed within a polymerizable continuous phase, followed by transfer to a direct miniemulsion via addition to an o/w surfactant solution with subsequent homogenization and radical polymerization. To our knowledge, this is the first work done where a polymerizable continuous phase has been used in an inverse (mini)emulsion formation followed by transfer to a direct miniemulsion, followed by polymerization, so that the result is a water-based dispersion. The versatility of the process was demonstrated by the synthesis of different inorganic pigments, but also the use of unconventional mixture of vinylic monomers and epoxy resin as the polymerizable phase (unconventional as a miniemulsion continuous phase but typical combination for coating applications). Zinc phosphate, calcium carbonate and barium sulfate were all successfully incorporated in the polymer-epoxy matrix. The choice of the system was based on a typical functional coatings system, but is not limited to. This system can be extended to incorporate various inorganic and further materials as long as the starting materials are water-soluble or hydrophilic. rnThe hybrid zinc phosphate – polymer water-based miniemulsion prepared by the above route was then applied to steel panels using autodeposition process. This is considered the first autodeposition coatings process to be carried out from a miniemulsion system containing zinc phosphate particles. Those steel panels were then tested for corrosion protection using salt spray tests. Those corrosion tests showed that the hybrid particles can protect substrate from corrosion and even improve corrosion protection, compared to a control sample where corrosion protection was performed at a separate step. Last but not least, it is suggested that corrosion protection mechanism is related to zinc phosphate mobility across the coatings film, which was proven using electron microscopy techniques.
Resumo:
Nitrogen is an essential nutrient. It is for human, animal and plants a constituent element of proteins and nucleic acids. Although the majority of the Earth’s atmosphere consists of elemental nitrogen (N2, 78 %) only a few microorganisms can use it directly. To be useful for higher plants and animals elemental nitrogen must be converted to a reactive oxidized form. This conversion happens within the nitrogen cycle by free-living microorganisms, symbiotic living Rhizobium bacteria or by lightning. Humans are able to synthesize reactive nitrogen through the Haber-Bosch process since the beginning of the 20th century. As a result food security of the world population could be improved noticeably. On the other side the increased nitrogen input results in acidification and eutrophication of ecosystems and in loss of biodiversity. Negative health effects arose for humans such as fine particulate matter and summer smog. Furthermore, reactive nitrogen plays a decisive role at atmospheric chemistry and global cycles of pollutants and nutritive substances.rnNitrogen monoxide (NO) and nitrogen dioxide (NO2) belong to the reactive trace gases and are grouped under the generic term NOx. They are important components of atmospheric oxidative processes and influence the lifetime of various less reactive greenhouse gases. NO and NO2 are generated amongst others at combustion process by oxidation of atmospheric nitrogen as well as by biological processes within soil. In atmosphere NO is converted very quickly into NO2. NO2 is than oxidized to nitrate (NO3-) and to nitric acid (HNO3), which bounds to aerosol particles. The bounded nitrate is finally washed out from atmosphere by dry and wet deposition. Catalytic reactions of NOx are an important part of atmospheric chemistry forming or decomposing tropospheric ozone (O3). In atmosphere NO, NO2 and O3 are in photosta¬tionary equilibrium, therefore it is referred as NO-NO2-O3 triad. At regions with elevated NO concentrations reactions with air pollutions can form NO2, altering equilibrium of ozone formation.rnThe essential nutrient nitrogen is taken up by plants mainly by dissolved NO3- entering the roots. Atmospheric nitrogen is oxidized to NO3- within soil via bacteria by nitrogen fixation or ammonium formation and nitrification. Additionally atmospheric NO2 uptake occurs directly by stomata. Inside the apoplast NO2 is disproportionated to nitrate and nitrite (NO2-), which can enter the plant metabolic processes. The enzymes nitrate and nitrite reductase convert nitrate and nitrite to ammonium (NH4+). NO2 gas exchange is controlled by pressure gradients inside the leaves, the stomatal aperture and leaf resistances. Plant stomatal regulation is affected by climate factors like light intensity, temperature and water vapor pressure deficit. rnThis thesis wants to contribute to the comprehension of the effects of vegetation in the atmospheric NO2 cycle and to discuss the NO2 compensation point concentration (mcomp,NO2). Therefore, NO2 exchange between the atmosphere and spruce (Picea abies) on leaf level was detected by a dynamic plant chamber system under labo¬ratory and field conditions. Measurements took place during the EGER project (June-July 2008). Additionally NO2 data collected during the ECHO project (July 2003) on oak (Quercus robur) were analyzed. The used measuring system allowed simultaneously determina¬tion of NO, NO2, O3, CO2 and H2O exchange rates. Calculations of NO, NO2 and O3 fluxes based on generally small differences (∆mi) measured between inlet and outlet of the chamber. Consequently a high accuracy and specificity of the analyzer is necessary. To achieve these requirements a highly specific NO/NO2 analyzer was used and the whole measurement system was optimized to an enduring measurement precision.rnData analysis resulted in a significant mcomp,NO2 only if statistical significance of ∆mi was detected. Consequently, significance of ∆mi was used as a data quality criterion. Photo-chemical reactions of the NO-NO2-O3 triad in the dynamic plant chamber’s volume must be considered for the determination of NO, NO2, O3 exchange rates, other¬wise deposition velocity (vdep,NO2) and mcomp,NO2 will be overestimated. No significant mcomp,NO2 for spruce could be determined under laboratory conditions, but under field conditions mcomp,NO2 could be identified between 0.17 and 0.65 ppb and vdep,NO2 between 0.07 and 0.42 mm s-1. Analyzing field data of oak, no NO2 compensation point concentration could be determined, vdep,NO2 ranged between 0.6 and 2.71 mm s-1. There is increasing indication that forests are mainly a sink for NO2 and potential NO2 emissions are low. Only when assuming high NO soil emissions, more NO2 can be formed by reaction with O3 than plants are able to take up. Under these circumstance forests can be a source for NO2.
Resumo:
In der vorliegenden Studie wurden verschiedene Techniken eingesetzt um drei Proben (4, 7, and 8) die aus denrnKorrosionsprodukten von aus dem Kosovo Krieg stammenden Munitionskugeln, bestehend aus abgereichertem Uranrn(Depleted Uranium - DU), zu untersuchen. Als erstes Verfahren wurde die Raman-Spektroskopie eingesetzt. Hierbeirnzeigte sichin den Proben, charakterisiert durch einen Doppelpeak, die Anwesenheit von Schoepitrn(UO2)8O2(OH)12(H2O)12. Der erste und zweite Peakzeigte sich im Spektralbereich von 840,3-842,5 cm-1rnbeziehungsweise 853,6-855,8 cm-1. Diese Werte stimmen mit den Literaturwerten für Raman-Peaks für Schoepitrnüberein. Des Weiteren wurde bei dieser Untersuchungsmethode Becquerelite Ca(UO2)6O4(OH)6(H2O)8 mit einemrnPeak im Bereich zwischen 829 to 836 cm-1 gefunden. Aufgrund des Fehlens des Becquerelitespektrums in derrnSpektralbibliothek wurde eine in der Natur vorkommende Variante analysiert und deren Peak bei 829 cm-1 bestimmt,rnwas mit den Ergebnissen in den Proben korrespondiert. Mittels Röntgenbeugung (X-Ray Diffraction, XRD) zeigtenrnsich in allen Proben ähnliche Spektren. Das lässt darauf schließen, dass das pulverisierte Material in allen Probenrndas gleiche ist. Hierbei zeigte sich eine sehr gute Übereinstimmung mit Schoepit und/oder meta-rnSchoepit(UO2)8O2(OH)12(H2O)10, sowie Becquerelite. Weiterhin war weder Autunit, Sabugalit noch Uranylphosphatrnanwesend, was die Ergebnisse einer anderen Studie, durchgeführt an denselben Proben, wiederlegt. DiernAnwesenheit von P, C oder Ca im Probenmaterial konnte ausgeschlossen werden. Im Falle von Calciumkann diesrnmit der Anwesenheit von Uran erklärt werden, welches aufgrund seines Atomradius bevorzugt in Becquerelite (1:6)rneingebaut wird. Die beiden Hauptpeaks für Uran lagen im Falle von U 4f 7/2 bei 382.0 eV und im Falle von U 4f 5/2rnbei 392 eV. Diese Werte mit den Literaturwerten für Schoepit und meta-Schoepitüberein. Die Ergebnissernelektronenmikroskopischen Untersuchung zeigen U, O, Ca, Ti als dominante Komponenten in allen Messungen.rnElemente wie Si, Al, Fe, S, Na, und C wurden ebenfalls detektiert; allerdings kann nicht ausgeschlossen werden,rndass diese Elemente aus dem Boden in der unmittelbaren Umgebung der Munitionsgeschosse stammen. Gold wurdernebenfalls gemessen, was aber auf die Goldarmierung in den Probenaufbereitungsbehältern zurückgeführt werdenrnkann. Die Elektronenmikroskopie zeigte außerdem einige Stellen in denen elementares Uran und Bodenmineralernsowie sekundäre Uranminerale auftraten. Die Elementübersicht zeigt einen direkten Zusammenhang zwischen U andrnCa und gleichzeitig keine Korrelation zwischen U und Si, oder Mg. Auf der anderen Seite zeigte sich aber einrnZusammenhang zwischen Si und Al da beide Konstituenten von Bodenmineralen darstellen. Eine mit Hilfe derrnElektronenstrahlmikroanalyse durchgeführte quantitative Analyse zeigte den Massenanteil von Uran bei ca. 78 - 80%,rnwas mit den 78,2% and 79,47% für Becquerelite beziehungsweise Schoepit aufgrund ihrer Summenformelrnkorrespondiert. Zusätzlich zeigt sich für Calcium ein Massenanteil von 2% was mit dem Wert in Becquerelite (2.19%)rnrecht gut übereinstimmt. Der Massenanteil von Ti lag in einigen Fällen bei 0,77%, was auf eine noch nicht korrodierternDU-Legierung zurückzuführen ist. Ein Lösungsexperiment wurde weiterhin durchgeführt, wobei eine 0,01 M NaClO4-rnLösung zum Einsatz kam in der die verbliebene Probensubstanz der Korrosionsprodukte gelöst wurde;rnNatriumperchlorate wurde hierbei genutzt um die Ionenstärke bei 0,01 zu halten. Um Verunreinigungen durchrnatmosphärisches CO2 zu vermeiden wurden die im Versuch für die drei Hauptproben genutzten 15 Probenbehälterrnmit Stickstoffgas gespült. Eine Modelkalkulation für den beschriebenen Versuchsaufbau wurde mit Visual MINTEQrnv.3.0 für die mittels vorgenannten Analysemethoden beschriebenen Mineralphasen im pH-Bereich von 6 – 10 imrnFalle von Becquerelite, und Schoepit berechnet. Die modellierten Lösungskurven wurden unter An- und Abwesenheitrnvon atmosphärischem CO2 kalkuliert. Nach dem Ende des Lösungsexperiments (Dauer ca. 6 Monate) zeigten diernKonzentrationen des gelösten Urans, gemessen mittels ICP-OES, gute Übereinstimmung mit den modelliertenrnSchoepit und Becquerelite Kurven. Auf Grund des ähnlichen Löslichkeitverhaltens war es nicht möglich zwichen denrnbeiden Mineralen zu unterscheiden. Schoepit kontrolliert im sauren Bereich die Löslichkeit des Urans, währendrnbecquerelit im basichen am wenigsten gelöst wird. Des Weiteren bleibt festzuhalten, dass ein Anteil an CO2 in diernverschlossenen Probenbehälter eingedrungen ist, was sich mit der Vorhersage der Modeldaten deckt. Die Löslichkeitrnvon Uran in der Lösung als Funktion des pH-Wertes zeigte die niedrigsten Konzentrationen im Falle einer Zunahmerndes pH-Wertes von 5 auf 7 (ungefähr 5,1 x 10-6 mol/l) und einer Zunahme des pH-Wertes auf 8 (ungefähr 1,5 x 10-6rnmol/l bei). Oberhalb dieses Bereichs resultiert jeder weitere Anstieg des pH-Wertes in einer Zunahme gelösten Uransrnin der Lösung. Der ph-Wert der Lösung wie auch deren pCO2-Wert kontrollieren hier die Menge des gelösten Urans.rnAuf der anderen Seite zeigten im Falle von Becquerelite die Ca-Konzentrationen höhere Werte als erwartet, wobeirnwahrscheinlich auf eine Vermischung der Proben mit Bodensubstanz zurückgeführt werden kann. Abschließendrnwurde, unter Berücksichtigung der oben genannten Ergebnisse, eine Fallstudie aus Basrah (Irak) diskutiert, wo inrnzwei militärischen Konflikten Uranmunition in zwei Regionen unter verschiedenen Umweltbedingungen eingesetztrnwurden.
Resumo:
In der vorliegenden Arbeit wurden Struktur-Eigenschaftsbeziehungen des konjugierten Modell-Polymers MEH-PPV untersucht. Dazu wurde Fällungs-fraktionierung eingesetzt, um MEH-PPV mit unterschiedlichem Molekulargewicht (Mw) zu erhalten, insbesondere MEH-PPV mit niedrigem Mw, da dieses für optische Wellenleiterbauelemente optimal geeignet ist Wir konnten feststellen, dass die Präparation einer ausreichenden Menge von MEH-PPV mit niedrigem Mw und geringer Mw-Verteilung wesentlich von der geeigneten Wahl des Lösungsmittels und der Temperatur während der Zugabe des Fällungsmittels abhängt. Alternativ dazu wurden UV-induzierte Kettenspaltungseffekte untersucht. Wir folgern aus dem Vergleich beider Vorgehensweisen, dass die Fällungsfraktionierung verglichen mit der UV-Behandlung besser geeignet ist zur Herstellung von MEH-PPV mit spezifischem Mw, da das UV-Licht Kettendefekte längs des Polymerrückgrats erzeugt. 1H NMR and FTIR Spektroskopie wurden zur Untersuchung dieser Kettendefekte herangezogen. Wir konnten außerdem beobachten, dass die Wellenlängen der Absorptionsmaxima der MEH-PPV Fraktionen mit der Kettenlänge zunehmen bis die Zahl der Wiederholeinheiten n 110 erreicht ist. Dieser Wert ist signifikant größer als früher berichtet. rnOptische Eigenschaften von MEH-PPV Wellenleitern wurden untersucht und es konnte gezeigt werden, dass sich die optischen Konstanten ausgezeichnet reproduzieren lassen. Wir haben die Einflüsse der Lösungsmittel und Temperatur beim Spincoaten auf Schichtdicke, Oberflächenrauigkeit, Brechungsindex, Doppelbrechung und Wellenleiter-Dämpfungsverlust untersucht. Wir fanden, dass mit der Erhöhung der Siedetemperatur der Lösungsmittel die Schichtdicke und die Rauigkeit kleiner werden, während Brechungsindex, Doppelbrechung sowie Wellenleiter-Dämpfungsverluste zunahmen. Wir schließen daraus, dass hohe Siedetemperaturen der Lösungsmittel niedrige Verdampfungsraten erzeugen, was die Aggregatbildung während des Spincoatings begünstigt. Hingegen bewirkt eine erhöhte Temperatur während der Schichtpräparation eine Erhöhung von Schichtdicke und Rauhigkeit. Jedoch nehmen Brechungsindex und der Doppelbrechung dabei ab.rn Für die Schichtpräparation auf Glassubstraten und Quarzglas-Fasern kam das Dip-Coating Verfahren zum Einsatz. Die Schichtdicke der Filme hängt ab von Konzentration der Lösung, Transfergeschwindigkeit und Immersionszeit. Mit Tauchbeschichtung haben wir Schichten von MEH-PPV auf Flaschen-Mikroresonatoren aufgebracht zur Untersuchung von rein-optischen Schaltprozessen. Dieses Verfahren erweist sich insbesondere für MEH-PPV mit niedrigem Mw als vielversprechend für die rein-optische Signalverarbeitung mit großer Bandbreite.rn Zusätzlich wurde auch die Morphologie dünner Schichten aus anderen PPV-Derivaten mit Hilfe von FTIR Spektroskopie untersucht. Wir konnten herausfinden, dass der Alkyl-Substitutionsgrad einen starken Einfluss auf die mittlere Orientierung der Polymerrückgrate in dünnen Filmen hat.rn
Resumo:
Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn