395 resultados para Optimale Versuchsplanung
Resumo:
Das humane Cytomegalovirus (HCMV) ist ein fakultativ-pathogener Erreger, der bei Patienten mit geschwächter oder unausgereifter Immunabwehr schwerwiegende Erkrankungen hervorrufen kann. Wie alle Herpesviren zeigt das HCMV eine streng koordinierte Expression viraler Gene, die in eine „sehr frühe-“ (IE), „frühe “ (E) und „späte-“ (L) Phase unterteilt werden kann. Die Produkte der IE-Gene IE1 und IE2 sind für die Expression der frühen Gene und somit für die Initiation der viralen DNA-Replikation entscheidend. Sie greifen gleichzeitig in den zellulären Stoffwechsel ein und schaffen damit optimale Vorraussetzungen für die virale Vermehrung. Zu Beginn dieser Arbeit war bekannt, dass HCMV in lytisch infizierten Zellen ein abundantes IE-Transkript von 5 kb (IE4-RNA) exprimierte, dessen Funktion bislang unklar war. Ältere Publikationen deuteten darauf hin, dass die IE4-Genregion an der Transformation eukaryonter Zellen beteiligt sein könnte. Neuere Arbeiten zeigten, dass es sich bei diesem IE4-Transkript um ein metabolisch stabiles Intron handelt. Im Rahmen dieser Arbeit sollte zunächst geklärt werden, ob die IE4-Genregion ein Protein kodiert. In der Folge sollten mit viralen Deletionsmutanten Hinweise auf die biologische Funktion des IE4-Bereichs erarbeitet werden. Durch Northern Blot Analysen und cDNA-Klonierungsexperimente konnte eine Reihe neuer Spleiß-Varianten der IE4-RNA identifiziert werden. Durch Sequenzanalysen wurde gezeigt, dass diese Transkripte keine längeren offenen Leserahmen enthalten. Zusammen mit bereits publizierten Erkenntnissen, kann aus diesen Ergebnissen mit hoher Wahrscheinlichkeit geschlossen werden, dass die IE4 Region nicht für ein Protein kodiert. Zur Analyse der biologischen Funktion der IE4-Region wurde das DNA-Genom des HCMV gezielt mutagenisiert. Eine phänotypische Analyse der entsprechenden Viren mittels Reportergen-Tests und quantitativer RealTime RT-PCR zeigte, dass einige der Mutanten eine verringerte Expression früher Gene aufwiesen, die mit einer Beeinträchtigung ihrer Replikationsfähigkeit in Fibroblastenkulturen korrelierte. Dabei war die Ausbildung eines Phänotyps jedoch von dem genetischen Hintergrund des verwendeten viralen Ausgangsstammes abhängig. Auffällig war, dass phänotypische Veränderungen nur bei solchen Mutanten sichtbar wurden, die auf der Grundlage des Laborstammes Ad169 des HCMV generiert worden waren. Die nachfolgende Analyse der Ausgangsstämme ergab deutliche Unterschiede in der IE-Genexpression. Die Ergebnisse dieser Arbeit zeigen somit, dass die IE4-RNA mit hoher Wahrscheinlichkeit nicht für ein Protein kodiert, aber bei limitierender Expression der essentiellen Regulatoren IE1 und IE2 die frühe lytische Genexpression stimuliert. Die Ergebnisse dieser Arbeit stellen die Grundlage für nachfolgende Untersuchungen zur Aufklärung der molekularen Funktion der IE4-RNA im Rahmen der lytischen Infektion des HCMV dar.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Zur bronchialen Deposition von Arzneimitteln stehen im Wesentlichen drei Inhalationssysteme zur Verfügung: (1) Dosier-Aerosole (pressurized Metered Dose Inhaler, pMDI), (2) Trockenpulver-Inhalatoren (Dry Powder Inhaler, DPI) und (3) Druckluftvernebler zur Feuchtinhalation. Der Erfolg einer Inhalationstherapie hängt neben anderen Faktoren (s.u.) wesentlich vom Depositionsverhalten des als Aerosol inhalierten Medikamentes ab. Wie viel wirksame Substanz lagert sich an welchen Stellen der Atemwege ab und welche Dosis erreicht letztlich die kleinen Atemwege? Einflussfaktoren sind hier vor allem die Partikelgröße und die Inhalationstechnik. So verlangen beispielsweise DPI’s einen respiratorischen Spitzenfluss (PIF) von mindestens 30 l/min, wohingegen bei der Verwendung von pMDI’s ein gleich bleibender PIF von 40 bis 90 l/min erwünscht ist. Die für das jeweilige Inhalationssystem optimale Atemtechnik muss also vom Patienten erlernt werden. Mit den eigenen Arbeiten soll das Verständnis inhalativer Vorgänge sowie die bronchiale Deposition von inhalativen Medikamenten bei pädiatrischen Patienten verbessert werden. Aus der Vielzahl der Inhalatoren wählten wir für unsere Versuche fünf Systeme aus, deren unterschied-liche Anforderungen an den Patienten repräsentativ überprüft wurden: (1) DPI mit mittlerem Widerstand: Diskus®, (2) DPI mit hohem Widerstand: Turbohaler®, (3) pMDI: Autohaler®, (4) pMDI für Säuglinge: Budiair® mit verschiedenen Vorsatzkammern (Babyhaler®, AeroChamber® Plus small und medium) und (5) nachfüllbarer DPI mit niedrigem Widerstand: MAGhaler®. Für unsere Studien unverzichtbar war außerdem ein Testsystem, mit dem die Fähigkeit der Patienten überprüft und verbessert werden kann, einen bestimmten Inhalator effektiv zu benutzen, d.h. das gewünschte Atemmanöver durchzuführen und damit eine optimale Medikamenten-Deposition zu erreichen. Erste Untersuchungen ergaben, dass die kommerziell auf dem Markt verfügbaren Testsysteme suboptimal sind, weil sie sich nur auf die Messung des PIF’s konzentrieren und andere für die Deposition wichtige Parameter (Beschleunigung, Inhaltionsdauer etc.) außer Acht lassen. Wir entwickelten daher den Inhalation-Manager, der die Dokumentation des gesamten Atemmanövers ermöglicht. Es handelt sich dabei um ein computerbasiertes Mess- und Kontrollsystem, das unmittelbar nach der Inhalation ein optisches feedback des gesamten Manövers inklusive des generierten Partikelspektrums liefert. Die daraus weiterentwickelte Schulungssoftware ermöglicht die individuelle Schulung verschiedener Inhalationsmanöver auch mit neuen Inhalatoren. Patient und Arzt erhalten eine optische Rückmeldung, die den Erfolg oder Misserfolg der Inhalation erkennen lässt. Erste Schulungen mit dem neuen System von pädiatrischen Patienten mit Asthma bronchiale verliefen positiv: der Anteil der optimalen Inhalationsmanöver und damit auch der Therapieerfolg stiegen an. Allerdings zeigte sich auch, dass verschiedene Systeme nicht gleichzeitig geschult werden sollten. Generelle Schwierigkeiten bereitet die Inhalationstherapie von Kindern bis etwa zum 4. Geburtstag, da diese meist gar kein Inhalationsmanöver erlernen können. Die Medikamente müssen somit durch den Ruheatemfluss ins Bronchialsystem transportiert werden, wobei Dosieraerosole mit Vorsatzkammern (Spacer) oder Vernebler mit Masken zum Einsatz kommen sollten. Bei der Inhalation mit Spacer war bislang unklar, wie viel Prozent der Nominaldosis letztlich in die Lunge gelangen und therapeutisch wirksam werden. Unsere in-vitro Studien mit einem Dosieraerosol und verschiedenen Spacern zeigten, dass nach fünf Atemzügen maximal 20% der Nominaldosis das Gerät bzw. den Spacer verlassen. Nach nur einem Atemzug und bei Verwendung bestimmter Spacer (großes Totraumvolumen) beträgt dieser Wert sogar nur 5%. Dieses Ergebnis belegt, dass man vom Säuglings- bis zum Erwachsenenalter nahezu die gleiche Nominaldosis verabreichen kann, da durch unterschiedliche Inhalationsmanöver und –systeme die wirksame Dosis extrakorporal auf die altersentsprechende Dosis reduziert wird. Ein besonderes Problem ergibt sich schließlich bei der Feuchtinhalation mit Druckluftverneblern. Hier darf die Kompatibilität von unterschiedlichen Inhalationslösungen nicht außer Acht gelassen werden. So gaben in unserer Mukoviszidose-Ambulanz viele Betroffene an, aus Zeitgründen unterschiedliche Inhalationslösungen bei der Feuchtinhalation zu mischen. Physikalisch-chemische Inkompatibilitäten können dann die Wirksamkeit der Therapie beeinträchtigen und auch zu unerwünschten Nebenwirkungen führen. In einer interdisziplinären Arbeitsgruppe mit Chemikern und Pharmazeuten untersuchten wir daher die Mischbarkeit von häufig genutzten Inhalationslösungen (Salbutamol, Ipratropium, Cromoglicinsäure, Budenosid, Tobramycin und Dornase Alpha) und stellten die Ergebnisse (mögliche Inhaltionskombinationen) tabellarisch zusammen.
Resumo:
Die regionale Bestimmung der Durchblutung (Perfusion) ermöglicht differenzierte Aussagen über den Gesundheitszustand und die Funktionalität der Lunge. Durch neue Messverfahren ermöglicht die Magnetresonanztomographie (MRT) eine nicht-invasive und strahlungsfreie Untersuchung der Perfusion. Obwohl die Machbarkeit qualitativer MRT-Durchblutungsmessungen bereits gezeigt wurde, fehlt bisher eine validierte quantitative Methode. Ziel dieser Arbeit war eine Optimierung der bestehenden Messprotokolle und mathematischen Modelle zur Absolutquantifizierung der Lungenperfusion mit Magnetresonanztomographie. Weiterhin sollte die Methodik durch Vergleich mit einem etablierten Referenzverfahren validiert werden. Durch Simulationen und Phantommessungen konnten optimale MRT-Messparameter und ein standardisiertes Protokoll festgelegt werden. Des Weiteren wurde eine verallgemeinerte Bestimmung der Kontrastmittelkonzentration aus den gemessenen Signalintensitäten vorgestellt, diskutiert und durch Probandenmessungen validiert. Auf der Basis dieser Entwicklungen wurde die MRT-Durchblutungsmessung der Lunge tierexperimentell mit der Positronenemissionstomographie (PET) intraindividuell verglichen und validiert. Die Ergebnisse zeigten nur kleine Abweichungen und eine statistisch hochsignifikante, stark lineare Korrelation. Zusammenfassend war es durch die Entwicklungen der vorgestellten Arbeit möglich, die kontrastmittelgestützte MRT-Durchblutungsmessung der Lunge zu optimieren und erstmals zu validieren.
Resumo:
We present new algorithms to approximate the discrete volume of a polyhedral geometry using boxes defined by the US standard SAE J1100. This problem is NP-hard and has its main application in the car design process. The algorithms produce maximum weighted independent sets on a so-called conflict graph for a discretisation of the geometry. We present a framework to eliminate a large portion of the vertices of a graph without affecting the quality of the optimal solution. Using this framework we are also able to define the conflict graph without the use of a discretisation. For the solution of the maximum weighted independent set problem we designed an enumeration scheme which uses the restrictions of the SAE J1100 standard for an efficient upper bound computation. We evaluate the packing algorithms according to the solution quality compared to manually derived results. Finally, we compare our enumeration scheme to several other exact algorithms in terms of their runtime. Grid-based packings either tend to be not tight or have intersections between boxes. We therefore present an algorithm which can compute box packings with arbitrary placements and fixed orientations. In this algorithm we make use of approximate Minkowski Sums, computed by uniting many axis-oriented equal boxes. We developed an algorithm which computes the union of equal axis-oriented boxes efficiently. This algorithm also maintains the Minkowski Sums throughout the packing process. We also extend these algorithms for packing arbitrary objects in fixed orientations.
Resumo:
The biogenic production of NO in the soil accounts for between 10% and 40% of the global total. A large degree of the uncertainty in the estimation of the biogenic emissions stems from a shortage of measurements in arid regions, which comprise 40% of the earth’s land surface area. This study examined the emission of NO from three ecosystems in southern Africa which cover an aridity gradient from semi-arid savannas in South Africa to the hyper-arid Namib Desert in Namibia. A laboratory method was used to determine the release of NO as a function of the soil moisture and the soil temperature. Various methods were used to up-scale the net potential NO emissions determined in the laboratory to the vegetation patch, landscape or regional level. The importance of landscape, vegetation and climatic characteristics is emphasized. The first study occurred in a semi-arid savanna region in South Africa, where soils were sampled from 4 landscape positions in the Kruger National Park. The maximum NO emission occurred at soil moisture contents of 10%-20% water filled pore space (WFPS). The highest net potential NO emissions came from the low lying landscape positions, which have the largest nitrogen (N) stocks and the largest input of N. Net potential NO fluxes obtained in the laboratory were converted in field fluxes for the period 2003-2005, for the four landscape positions, using soil moisture and temperature data obtained in situ at the Kruger National Park Flux Tower Site. The NO emissions ranged from 1.5-8.5 kg ha-1 a-1. The field fluxes were up-scaled to a regional basis using geographic information system (GIS) based techniques, this indicated that the highest NO emissions occurred from the Midslope positions due to their large geographical extent in the research area. Total emissions ranged from 20x103 kg in 2004 to 34x103 kg in 2003 for the 56000 ha Skukuza land type. The second study occurred in an arid savanna ecosystem in the Kalahari, Botswana. In this study I collected soils from four differing vegetation patch types including: Pan, Annual Grassland, Perennial Grassland and Bush Encroached patches. The maximum net potential NO fluxes ranged from 0.27 ng m-2 s-1 in the Pan patches to 2.95 ng m-2 s-1 in the Perennial Grassland patches. The net potential NO emissions were up-scaled for the year December 2005-November 2006. This was done using 1) the net potential NO emissions determined in the laboratory, 2) the vegetation patch distribution obtained from LANDSAT NDVI measurements 3) estimated soil moisture contents obtained from ENVISAT ASAR measurements and 4) soil surface temperature measurements using MODIS 8 day land surface temperature measurements. This up-scaling procedure gave NO fluxes which ranged from 1.8 g ha-1 month-1 in the winter months (June and July) to 323 g ha-1 month-1 in the summer months (January-March). Differences occurred between the vegetation patches where the highest NO fluxes occurred in the Perennial Grassland patches and the lowest in the Pan patches. Over the course of the year the mean up-scaled NO emission for the studied region was 0.54 kg ha-1 a-1 and accounts for a loss of approximately 7.4% of the estimated N input to the region. The third study occurred in the hyper-arid Namib Desert in Namibia. Soils were sampled from three ecosystems; Dunes, Gravel Plains and the Riparian zone of the Kuiseb River. The net potential NO flux measured in the laboratory was used to estimate the NO flux for the Namib Desert for 2006 using modelled soil moisture and temperature data from the European Centre for Medium Range Weather Forecasts (ECMWF) operational model on a 36km x 35km spatial resolution. The maximum net potential NO production occurred at low soil moisture contents (<10%WFPS) and the optimal temperature was 25°C in the Dune and Riparian ecosystems and 35°C in the Gravel Plain Ecosystems. The maximum net potential NO fluxes ranged from 3.0 ng m-2 s-1 in the Riparian ecosystem to 6.2 ng m-2 s-1 in the Gravel Plains ecosystem. Up-scaling the net potential NO flux gave NO fluxes of up to 0.062 kg ha-1 a-1 in the Dune ecosystem and 0.544 kg h-1 a-1 in the Gravel Plain ecosystem. From these studies it is shown that NO is emitted ubiquitously from terrestrial ecosystems, as such the NO emission potential from deserts and scrublands should be taken into account in the global NO models. The emission of NO is influenced by various factors such as landscape, vegetation and climate. This study looks at the potential emissions from certain arid and semi-arid environments in southern Africa and other parts of the world and discusses some of the important factors controlling the emission of NO from the soil.
Resumo:
Neben Tomatensaft wurde eine Vielzahl von Säften und Blattextrakten als Medienzusätze auf Wachstumsförderung bei 30 verschiedenen Oenococcus oeni-Stämmen getestet. Es zeigte sich eine breite Wachstumsförderung bei allen Zusätzen mit Ausnahme von Zitronensaft, sodass die Wachstumsfaktoren keine tomatenspezifischen Inhaltsstoffe sein können und eher ubiquitär in der Pflanzenwelt vorkommen. Das Ausmaß der Wachstumsförderung war stammabhängig sehr unterschiedlich und Tomatensaft stellte keineswegs für alle Stämme den optimalen Medienzusatz dar. Durch Schälen der Früchte war eine für die Analytik hilfreiche Abtrennung schalenspezifischer Inhaltsstoffe möglich, wobei auch die Schalenextrakte großes Potential für die Suche nach Wachstumsfaktoren offenbarten und die Wichtigkeit einer Auftrennung der Frucht in die verschiedenen Fruchtbereiche betonte. Aus Tomatensaft konnte analytisch der anorganische Wachstumsfaktor Mangan identifiziert werden. Die größten Zelldichten der Oenokokken-Stämme wurden hierbei bei 67 µM und 34 mM Manganzusatz erreicht. Bei 13 von 20 getesteten Oenokokkenstämmen konnte bei Zusatz von 34 mM Mangan der Tomatensaft ersetzt werden, bei 4 Stämmen (z. B. Stamm B2) fehlten jedoch noch weitere Wachstumsfaktoren und bei 3 Stämmen (z. B. Stamm B120) kam es zu einem verfrühten Absterben. Da weitere Mineralstoffe sowie veraschte Säfte und Blattextrakte keinen positiven Einfluß auf die Oenokokken-Zelldichte hatten, wurde mittels semipräparativer HPLC nach zusätzlichen organischen Wachstumsfaktoren für den Stamm B2 gesucht. Hierzu wurde der nachfolgende Wachstums-Assay miniaturisiert und erfolgreich auf Microtiterplatten etabliert. Es gelang die Isolierung und Identifizierung eines wachstumsfördernden Trisaccharides aus Mangoschalen-Extrakt, das aus den Zuckern Glucose, Rhamnose und Arabinose bestand. Von den monomeren Zuckern erhöhte lediglich die Arabinose die Zelldichte, das Optimum lag bei 1,5 g/l. Auch aus Zitronenmesokarp-Extrakt war die Isolierung eines wachstumsfördernden arabinosehaltigen Disaccharides möglich, die Menge reichte jedoch noch nicht für eine genaue Identifizierung aus. Desweiteren erwies sich 1,5 g/l Cystein als wachstumsstimulierend. Ein Zusatz aller gefundenen Wachstumsfaktoren (34 mM Mangan, 1,5 g/l Arabinose und 1,5 g/l Cystein) ersetzte den Tomatensaft bei weiteren Oenokokken-Stämmen (z.B. Stamm B120) komplett, wobei bei allen Stämmen sogar eine schnellere Anzucht erfolgte. Neben dem Tomatensaft war auch der Zusatz von Hefeextrakt zum Grundmedium nicht mehr nötig, sodass ein neues vereinfachtes Medium für die Anzucht von Oenokokken mit komplexen Nährstoffansprüchen vorgeschlagen werden konnte. Lediglich beim Stamm B2 zeigte sich noch ein OD-Unterschied von 0,2 in der stationären Phase, der nach Adsorptionsversuchen an Polyvinylpolypyrrolidon auf noch unidentifizierte Polyphenole im Tomatensaft zurückzuführen ist. Aus grünem Tee erwies sich das Polyphenol Epigallocatechingallat (EGCG) konzentrationsabhängig sowohl als Hemmstoff (>550 mg/l EGCG) als auch Wachstumsfaktor (400-500 mg/l EGCG) für den Oenokokken-Stamm B2. Der hemmende als auch der fördernde Einfluss auf das Wachstum wurde mittels Sytox/DAPI-Färbung bestätigt. Der sogenannte „Tomatensaft-Faktor“ ist also nicht eine spezielle Substanz, sondern das synergistische Zusammenwirken mehrerer einfacher Substanzen wie Mineralstoffe, Aminosäuren, Kohlenhydrate und Polyphenole. Auch sind die Oenokokken-Stämme bezüglich ihres Nährstoffbedarfes sehr unterschiedlich, sodass für jeden Stamm einzeln das optimale Substratspektrum ermittelt werden muss.
Resumo:
Stickstoffmonoxid (NO) ist als reaktives Spurengas eine wichtige Komponente atmosphärenchemischer Prozesse und hat somit einen bedeutenden Einfluss auf die Zusammensetzung der Atmosphäre. Eine Hauptquelle des Spurengases stellen bodenmikrobiologische Prozesse dar, deren regionaler und globaler Anteil weiterhin mit größeren Unsicherheiten geschätzt wird. Ursache für die schwere Abschätzbarkeit der NO-Freisetzung aus Böden ist die hohe räumliche Variabilität der steuernden Faktoren. Als einer der wichtigsten Faktoren, die die Freisetzung von NO aus Böden regeln, gilt der Bodenwassergehalt. Ziel der vorliegenden Arbeit ist es, den Zusammenhang zwischen NO-Freisetzung, Bodenwassergehalt, den Bodeneigenschaften und den Standortbedingungen zu untersuchen und diesen möglichst zu quantifizieren. Dazu sind Bodenproben unterschiedlicher Landnutzungen in einem kleineren Wassereinzugsgebiet im Rheingau im Labor, unter kontrollierten Bedingungen, untersucht. Der charakteristische Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung, die sogenannte Bodenfeuchtekurve, kann demnach weitestgehend auf die gemessenen Bodenmerkmale der untersuchten Proben zurückgeführt werden. Anhand der Bodenmerkmale kann die Bodenfeuchtekurve zufriedenstellend vorhergesagt werden. Dabei zeigt vor allem der Humusgehalt der Böden einen dominierenden Einfluss. Er ist die Variable, die die Unterschiede der Böden beim Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung am besten und hinreichend erklären kann. Zur Konstruktion der Bodenfeuchtekurve müssen die optimale Bodenfeuchte und die dabei herrschende Freisetzung, sowie die obere Bodenfeuchte, bei der keine NO-Freisetzung mehr stattfindet, bekannt sein. Diese charakteristischen Punkte lassen sich durch lineare Regressionsmodelle gut aus den Bodeneigenschaften ableiten. Auf räumlicher Ebene werden die Bodeneigenschaften durch die standörtlichen Bedingungen geprägt, die wiederum Ausdruck der landschaftlichen Ausstattung sind. In der Kulturlandschaft kann der Mensch aufgrund seiner Landnutzungsansprüche als der dominierende Faktor angesehen werden. Die Landnutzung orientiert sich an den landschaftlichen Bedingungen und bestimmt in hohem Maße wichtige Bodeneigenschaften, die zu den erklärenden Merkmalen bei der Beziehung zwischen Bodenwassergehalt und NO-Freisetzung gehören. Die in erster Linie wirtschaftlich orientierten Kartenwerke Bodenschätzung, Weinbergsbodenkartierung und forstliche Standortkartierung sind dementsprechend geeignete Grundlagen, um eine Regionalisierung der Landschaft in - bezüglich der NO-Freisetzung - weitgehend homogene Flächen durchführen zu können. Eine hierauf beruhende Regionalisierung ist dazu geeignet, die räumliche Variabilität der NO-Freisetzung in räumlich sinnvoller Auflösung besser abschätzen zu können.
Resumo:
Es soll eine Dichtefunktion geschätzt werden unter der Modellannahme, dass diese in einer geeigneten Besovklasse liegt und kompakten Träger hat. Hierzu wird ein Waveletschätzer TW näher untersucht, der Thresholding-Methoden verwendet. Es wird die asymptotische Konvergenzgeschwindigkeit von TW für eine große Zahl von Beobachtungen angegeben und bewiesen. Schließlich werden in einem Überblick weitere Waveletschätzer diskutiert und mit TW verglichen. Es zeigt sich, dass TW in vielen Modellannahmen die optimale Konvergenzrate erreicht.
Resumo:
Der Lichtsammelkomplex II (LHCII) höherer Pflanzen ist eines der häufigsten Membranproteine der Welt. Er bindet 14 Chlorophylle und 4 Carotinoide nicht kovalent und fungiert in vivo als Lichtantenne des Photosystems II. Eine optimale Absorption von Licht ist auch bei Solarzellen entscheidend und es liegt nahe hier dasselbe Prinzip zu verwenden. Dafür bietet sich der Einsatz biologischer Komponenten wie des LHCII an. Dieser wurde evolutionär für eine effektive Absorption und Weiterleitung von Sonnenenergie optimiert. Zusätzlich lässt er sich in vitro in rekombinanter Form rekonstituieren. Für eine eventuelle Nutzung des LHCII in technologischen Anwendungen bedarf es der Interaktion mit anderen, vorzugsweise synthetischen Komponenten. Daher wurde die Bindung und der Energietransfer zwischen dem LHCII und organischen Fluoreszenzfarbstoffen sowie anorganischen „Quantum dots“ (QDs) untersucht. rnMit Donorfarbstoffen wurde die Grünlücke des LHCII funktionell geschlossen. Dafür wurden bis zu vier Fluoreszenzfarbstoffe kovalent an den LHCII gebunden. Diese Interaktion erfolgte sowohl mit Maleimiden an Cysteinen als auch mit N-Hydroxysuccinimidylestern an Lysinen. Die Assemblierung, Struktur und Funktion des Pigment-Protein-Komplexes wurde durch die Fluoreszenzfarbstoffe nicht gestört.rnAuf der Suche nach einem Farbstoff, der als Akzeptor die vom LHCII aufgenommene Energie übernimmt und durch Elektronenabgabe in elektrische Energie umwandelt, wurden drei Rylenfarbstoffe, ein Quaterrylen und zwei Terrylene, untersucht. Der LHCII konnte mit allen Farbstoffen erfolgreich markiert werden. Für die Nutzung der Hybridkomplexe ergaben sich allerdings Probleme. Das Quaterrylen beeinträchtigte aufgrund seiner Hydrophobizität die Rekonstitution des Proteins, während bei beiden Terrylenen der Energietransfer ineffizient war.rn Zusätzlich zu den Standard-Verknüpfungen zwischen Farbstoffen und Proteinen wurde in dieser Arbeit die „native chemische Ligation“ etabliert. Hierfür wurde eine LHCII-Mutante mit N-terminalem Cystein hergestellt, markiert und rekonstituiert. Messdaten an diesem Hybridkomplex ließen auf einen Energietransfer zwischen Farbstoff und Protein schließen. rnIn Hybridkomplexen sollen langfristig zur Ladungstrennung fähige Typ II-QDs Anwendung finden, wobei der LHCII als Lichtantenne dienen soll. Bis diese QDs verwendet werden können, wurden grundlegende Fragen der Interaktion beider Materialen an Typ I-QDs mit Energietransfer zum LHCII untersucht. Dabei zeigte sich, dass QDs in wässriger Lösung schnell aggregieren und entsprechende Kontrollen wichtig sind. Weiterführend konnte anhand der Trennung von ungebundenem und QD-gebundenem LHCII die Bindung von LHCII an QDs bestätigt werden. Dabei wurden Unterschiede in der Bindungseffizienz in Abhängigkeit der verwendeten LHCII und QDs festgestellt. Durch Herstellung von Fusionsproteinen aus LHCII und Affinitätspeptiden konnte die Bindung optimiert werden. Ein Energietransfer von QDs zu LHCII war nicht sicher nachzuweisen, da in den Hybridkomplexen zwar die QD- (Donor-) Fluoreszenz gelöscht, aber die LHCII- (Akzeptor-) Fluoreszenz nicht entsprechend stimuliert wurde.rnZusammenfassend wurden in dieser Arbeit einige Hybridkomplexe hergestellt, die in weiterführenden Ansätzen Verwendung finden können. Auf die hier gewonnenen Erkenntnisse über Interaktionen zwischen LHCII und synthetischen Materialien kann jetzt weiter aufgebaut werden.
A new double laser pulse pumping scheme for transient collisionally excited plasma soft X-ray lasers
Resumo:
Within this thesis a new double laser pulse pumping scheme for plasma-based, transient collisionally excited soft x-ray lasers (SXRL) was developed, characterized and utilized for applications. SXRL operations from ~50 up to ~200 electron volt were demonstrated applying this concept. As a central technical tool, a special Mach-Zehnder interferometer in the chirped pulse amplification (CPA) laser front-end was developed for the generation of fully controllable double-pulses to optimally pump SXRLs.rnThis Mach-Zehnder device is fully controllable and enables the creation of two CPA pulses of different pulse duration and variable energy balance with an adjustable time delay. Besides the SXRL pumping, the double-pulse configuration was applied to determine the B-integral in the CPA laser system by amplifying short pulse replica in the system, followed by an analysis in the time domain. The measurement of B-integral values in the 0.1 to 1.5 radian range, only limited by the reachable laser parameters, proved to be a promising tool to characterize nonlinear effects in the CPA laser systems.rnContributing to the issue of SXRL pumping, the double-pulse was configured to optimally produce the gain medium of the SXRL amplification. The focusing geometry of the two collinear pulses under the same grazing incidence angle on the target, significantly improved the generation of the active plasma medium. On one hand the effect was induced by the intrinsically guaranteed exact overlap of the two pulses on the target, and on the other hand by the grazing incidence pre-pulse plasma generation, which allows for a SXRL operation at higher electron densities, enabling higher gain in longer wavelength SXRLs and higher efficiency at shorter wavelength SXRLs. The observation of gain enhancement was confirmed by plasma hydrodynamic simulations.rnThe first introduction of double short-pulse single-beam grazing incidence pumping for SXRL pumping below 20 nanometer at the laser facility PHELIX in Darmstadt (Germany), resulted in a reliable operation of a nickel-like palladium SXRL at 14.7 nanometer with a pump energy threshold strongly reduced to less than 500 millijoule. With the adaptation of the concept, namely double-pulse single-beam grazing incidence pumping (DGRIP) and the transfer of this technology to the laser facility LASERIX in Palaiseau (France), improved efficiency and stability of table-top high-repetition soft x-ray lasers in the wavelength region below 20 nanometer was demonstrated. With a total pump laser energy below 1 joule the target, 2 mircojoule of nickel-like molybdenum soft x-ray laser emission at 18.9 nanometer was obtained at 10 hertz repetition rate, proving the attractiveness for high average power operation. An easy and rapid alignment procedure fulfilled the requirements for a sophisticated installation, and the highly stable output satisfied the need for a reliable strong SXRL source. The qualities of the DGRIP scheme were confirmed in an irradiation operation on user samples with over 50.000 shots corresponding to a deposited energy of ~ 50 millijoule.rnThe generation of double-pulses with high energies up to ~120 joule enabled the transfer to shorter wavelength SXRL operation at the laser facility PHELIX. The application of DGRIP proved to be a simple and efficient method for the generation of soft x-ray lasers below 10 nanometer. Nickel-like samarium soft x-ray lasing at 7.3 nanometer was achieved at a low total pump energy threshold of 36 joule, which confirmed the suitability of the applied pumping scheme. A reliable and stable SXRL operation was demonstrated, due to the single-beam pumping geometry despite the large optical apertures. The soft x-ray lasing of nickel-like samarium was an important milestone for the feasibility of applying the pumping scheme also for higher pumping pulse energies, which are necessary to obtain soft x-ray laser wavelengths in the water window. The reduction of the total pump energy below 40 joule for 7.3 nanometer short wavelength lasing now fulfilled the requirement for the installation at the high-repetition rate operation laser facility LASERIX.rn
Resumo:
Until today, autogenic bone grafts from various donor regions represent the gold standard in the field of bone reconstruction, providing both osteoinductive and osteoconductive characteristics. However, due to low availability and a disequilibrium between supply and demand, the risk of disease transfer and morbidity, usually associated with autogeneic bone grafts, the development of biomimic materials with structural and chemical properties similar to those of natural bone have been extensively studied. So far,rnonly a few synthetic materials, so far, have met these criteria, displaying properties that allow an optimal bone reconstitution. Biosilica is formed enzymatically under physiological-relevant conditions (temperature and pH) via silicatein (silica protein), an enzyme that was isolated from siliceous sponges, cloned, and prepared in a recombinant way, retaining its catalytic activity. It is biocompatible, has some unique mechanical characteristics, and comprises significant osteoinductive activity.rnTo explore the application of biosilica in the fields of regenerative medicine,rnsilicatein was encapsulated, together with its substrate sodium metasilicate, into poly(D,L-lactide)/polyvinylpyrrolidone(PVP)-based microspheres, using w/o/wrnmethodology with solvent casting and termed Poly(D,L-lactide)-silicatein silicacontaining-microspheres [PLASSM]. Both silicatein encapsulation efficiency (40%) and catalytic activity retention upon polymer encapsulation were enhanced by addition of an essential pre-emulsifying step using PVP. Furthermore, the metabolic stability, cytoxicity as well as the kinetics of silicatein release from the PLASSM were studied under biomimetic conditions, using simulated body fluid. As a solid support for PLASSM, a polyvinylpyrrolidone/starch/Na2HPO4-based matrix (termed plastic-like filler matrix containing silicic acid [PMSA]) was developed and its chemical and physical properties determined. Moreover, due to the non-toxicity and bioinactivity of the PMSA, it is suggested that PMSA acts as osteoconductive material. Both components, PLASSM and PMSA, when added together, form arnbifunctional 2-component implant material, that is (i)non-toxic(biocompatible), (ii)moldable, (iii) self-hardening at a controlled and clinically suitable rate to allows a tight insertion into any bone defect (iv) biodegradable, (v)forms a porous material upon exposure to body biomimetic conditions, and (vi)displays both osteoinductive (silicatein)and osteoconductive (PMSA) properties.rnPreliminary in vivo experiments were carried out with rabbit femurs, by creatingrnartificial bone defects that were subsequently treated with the bifunctional 2-component implant material. After 9 weeks of implantation, both computed tomography (CT) and morphological analyses showed complete resorption of the implanted material, concurrent with complete bone regeneration. The given data can be considered as a significant contribution to the successful introduction of biosilica-based implants into the field of bone substitution surgery.
Resumo:
Die optische Eigenschaften sowie der Oberflächenverstärkungseffekt von rauen Metalloberflächen sowie Nanopartikeln wurden intensiv für den infraroten Bereich des Spektrums in der Literatur diskutiert. Für die Präparation solcher Oberflächen gibt es prinzipiell zwei verschiedene Strategien, zum einen können die Nanopartikel zuerst ex-situ synthetisiert werden, der zweite Ansatz beruht darauf, dass die Nanopartikel in-situ hergestellt und aufgewachsen werden. Hierbei wurden beide Ansätze ausgetestet, dabei stellte sich heraus, dass man nur mittels der in-situ Synthese der Goldnanopartikel in der Lage ist nanostrukturierte Oberflächen zu erhalten, welche elektronisch leitfähig sind, nicht zu rau sind, um eine Membranbildung zu ermöglichen und gleichzeitig einen optimalen Oberflächenverstärkungseffekt zeigen. Obwohl keine ideale Form der Nanopartikel mittels der in-situ Synthese erhalten werden können, verhalten sich diese dennoch entsprechend der Theorie des Oberflächenverstärkungseffekts. Optimierungen der Form und Grösse der Nanopartikel führten in dieser Arbeit zu einer Optimierung des Verstärkungseffekts. Solche optimierten Oberflächen konnten einfach reproduziert werden und zeichnen sich durch eine hohe Stabilität aus. Der so erhaltene Oberflächenverstärkungseffekt beträgt absolut 128 verglichen mit dem belegten ATR-Kristall ohne Nanopartikel oder etwa 6 mal, verglichen mit der Oberfläche, die bis jetzt auch in unserer Gruppe verwendet wurde. Daher können nun Spektren erhalten werden, welche ein deutlich besseres Signal zu Rauschverhältnis (SNR) aufweisen, was die Auswertung und Bearbeitung der erhaltenen Spektren deutlich vereinfacht und verkürzt.rnNach der Optimierung der verwendeten Metalloberfläche und der verwendeten Messparameter am Beispiel von Cytochrom C wurde nun an der Oberflächenbelegung der deutlich größeren Cytochrom c Oxidase gearbeitet. Hierfür wurde der DTNTA-Linker ex-situ synthetisiert. Anschließend wurden gemischte Monolagen (self assembeld monolayers) aus DTNTA und DTP hergestellt. Die NTA-Funktionalität ist für die Anbindung der CcO mit der his-tag Technologie verantwortlich. Die Kriterien für eine optimale Linkerkonzentration waren die elektrischen Parameter der Schicht vor und nach Rekonstitution in eine Lipidmembran, sowie Elektronentransferraten bestimmt durch elektrochemische Messungen. Erst mit diesem optimierten System, welches zuverlässig und reproduzierbar funktioniert, konnten weitere Messungen an der CcO begonnen werden. Aus elektrochemischen Messungen war bekannt, dass die CcO durch direkten Elektronentransfer unter Sauerstoffsättigung in einen aktivierten Zustand überführt werden kann. Dieser aktivierte Zustand zeichnet sich durch eine Verschiebung der Redoxpotentiale um etwa 400mV gegenüber dem aus Gleichgewichts-Titrationen bekannten Redoxpotential aus. Durch SEIRAS konnte festgestellt werden, dass die Reduktion bzw. Oxidation aller Redoxzentren tatsächlich bei den in der Cyclovoltammetrie gemessenen Potentialen erfolgt. Außerdem ergaben die SEIRA-Spektren, dass durch direkten Elektronentransfer gravierende Konformationsänderungen innerhalb des Proteins stattfinden. rnBisher war man davon ausgegangen, aufgrund des Elektronentransfers mittels Mediatoren, dass nur minimale Konformationsänderungen beteiligt sind. Vor allem konnte erstmaligrnder aktivierte und nicht aktivierte Zustand der Cytochrom c Oxidase spektroskopisch nachweisen werden.rn
Resumo:
Diese Arbeit beschreibt eine wesentliche Weiterentwicklung des Titan:Saphir-Lasersystems der Arbeitsgruppe LARISSA am Institut für Physik der Johannes Gutenberg-Universität Mainz und dessen Anwendung im Bereich der Resonanzionisationsspektroskopie. Die Entwicklungsarbeiten am Lasersystem umfassten drei Aspekte: die Erhöhung der Ausgangsleistung der vorhandenen Titan:Saphir-Laser um einen Faktor zwei, um damit für den vorgesehenen Einsatz an resonanten Laserionenquellen an ISOL-Einrichtungen optimale Voraussetzungen zu schaffen. Des Weiteren wurden zwei spezielle angepasste Titan:Saphir-Laser entwickelt: Das Lasersystem wurde damit um einen von 700 nm - 950 nm kontinuierlich abstimmbaren Titan:Saphir-Laser sowie einen geseedeten Titan:Saphir-Laser mit einer Linienbreite von nur 20 MHz (im Vergleich zu 3 GHz der konventionellen Laser) erweitert. Die Leistungsfähigkeit des neuen Lasersystems wurde durch Resonanzionisationsspektroskopie hochangeregter atomarer Zustände in Gold und Technetium demonstriert. Aus den gemessenen Energielagen konnte über die Rydberg-Ritz-Formel das Ionisationspotential von Gold bestätigt werden und das von Technetium erstmals mit hoher Präzision bestimmt werden. Mit dem geseedeten Titan:Saphir-Laser wurde dopplerfreie Zwei-Photonen-Spektroskopie innerhalb eines heißen Ofens demonstriert. Bei spektroskopischen Untersuchungen mit dieser Methode an Siliziumisotopen konnte sowohl die Hyperfeinstruktur als auch die Isotopieverschiebung bei einer Breite der Resonanzen von etwa 90 MHz klar aufgelöst werden.
Resumo:
Das Ziel der vorliegenden Arbeit war die Synthese eines Katalysatorpartikels, der in der Lage ist, in nur einem Polymerisationsschritt einen Kern-Schale-artigen Produktpartikel herzustellen, bei dem zwei verschiedene Polyolefine jeweils ortsaufgelöst in der Schale bzw. im Kern vorhanden sein sollten. Dabei wurden zwei Grundbedingungen erfüllt: Optimale Trennung der verschiedenen Katalysatordomänen in Kern und Schale; diese Trennung durfte auch bei den in industriellen Polymerisationen herrschenden Reaktionsbedingungen (Druck, Scherkräfte, Temperatur, Lösungsmittel) nicht verloren gehen. Beibehaltung der Aktivität und Spezifität der einzelnen Katalysatoren; dabei muß besonderes Augenmerk auf den Kern gelegt werden, der ggf. durch die aufzutragende Schale nicht ausreichend mit Monomer versorgt wird oder während dem Aufbringen der Schale desaktiviert werden könnte. Die entwickelte Trägerungsroute besticht durch das simple Trägerungsverfahren des Schalenmaterials und des Schalenkatalysators, bedingt durch die Affinität der funktionalisierten Schalenpartikel mit dem Kernkatalysatorsystem. Die entwickelte Trägerungsroute kann industriell mit allen gängigen (Post)Metallocenen sowie (als Kernpartikel) Ziegler-Natta-Systemen anwendbar sein und ist hierdurch sehr flexibel.